sábado, 24 de noviembre de 2012

Los robots informáticos

Amordazados por los robots informáticos

La digitalización de nuestra vida pública está dando lugar a nuevos mediadores. en la Red hay multitud de mecanismo de planificación insidiosa en manos de la publicidad o la censura. Debemos mantenerlos a raya

EULOGIA MERLE

Se proclama a menudo que la “desintermediación” es el rasgo definitorio de la era digital. Gracias al carácter renovador de las nuevas tecnologías, a los mediadores de todo tipo se les considera en vías de extinción. Por lo visto, una vez desaparecidos los redactores, los editores y las librerías, nuestra vida pública se liberaría de los puntos de vista sesgados, incompetencias y agendas ocultas de todos ellos. Según Jeff Bezos, fundador y director de Amazon, “hasta los moderadores mejor intencionados son un freno para la innovación. Cuando una plataforma consiste en un autoservicio, hasta las ideas más inverosímiles pueden ponerse a prueba, ya que no hay moderador, por experto que sea, que vaya a decir: ‘eso nunca funcionará”. Incluso aunque tenga razón, Bezos ignora un aspecto importante del asunto: la digitalización de nuestra vida pública también está dando origen a muchos nuevos mediadores.
Pongamos por caso los blogs. Cuando la primera generación de blogueros entró en la Red, los únicos intermediarios con los que se encontraban eran su entidad anfitriona y su proveedor de servicios de Internet. Cualquiera que empiece un blog en 2012 probablemente irá a parar a una plataforma comercial como Tumblr o Word Press, y con los comentarios a su blog encauzados por un tercero, por ejemplo una compañía como Disqus. La propia Disqus, además, colabora con una empresa llamada Impermium, que cuenta con diversas herramientas automáticas que comprueban si los comentarios enviados son spam. Es la proliferación, no la eliminación, de intermediarios lo que ha hecho del blogging algo tan extendido; aquí el término adecuado es “hiperintermediación”, no “desintermediación”.
Impermium, además, sostiene haber desarrollado una tecnología capaz de “identificar no solo el spam y los vínculos maliciosos, sino también todo tipo de contenidos dañinos —tales como violencia, racismo, irreverencia flagrante e incitación al odio—, que permite a los propietarios actuar contra ellos en tiempo real, antes de que llegue a los lectores”. Afirma tener a 300.00 páginas web como clientes. Así es: una sola empresa californiana está tomando decisiones sobre qué se considera incitación al odio y qué se considera irreverencia para 300.000 sitios.
El modelo de Impermium es interesante porque añade una capa de big data (sistemas que manejan grandes conjuntos de datos) al proceso de tachar algo como spam o como incitación al odio. Solía suceder que cualquiera que mencionase Viagra en su comentario o en su entrada de blog sería bloqueado inmediatamente; Impermium afirma que haciendo uso de los datos de usuario que le llegan de su red de 300.000 sitios web en los que participa, puede realmente distinguir las bromas sobre Viagra del spam sobre Viagra.
Los 'spambots' han logrado inutilizar en Twitter las etiquetas relacionadas con el Tíbet
Eso podría parecer liberador. En otros contextos, sin embargo, ese matrimonio entre big data y moderación automática de contenidos podría tener un lado más oscuro, en particular en los regímenes no democráticos, para los que una guerra al spam es tan solo un pretexto para suprimir las opiniones disidentes.
Los blogueros de China, por ejemplo, emplean regularmente eufemismos y alusiones para hacerles trampa a sus censores algorítmicos. Una expresión aparentemente inocua como “cangrejo de río” suele querer significar “censura de Internet”, en tanto que “terapia vacacional” se ha utilizado para referirse a detenciones de autoridades del Gobierno. Dejadas sin censurar tales expresiones se convierten rápidamente en memes (unidades mínimas de información cultural transmisible), desencadenando debates críticos sobre la política china.
Con la ayuda de los big data, el software de filtración de contenidos puede comprobar la frecuencia relativa con la que tales expresiones son utilizadas en otros sitios populares e investigar qué comentadores las utilizan realmente para descubrir eufemismos sospechosos. O podrían investigar de qué puntos geográficos proceden algunas de esas entradas: imaginen qué tipo de posibilidades censoras se abrirán una vez que las decisiones moderadoras puedan incorporar información sobre localización espacial: ¿Por qué no bloquear comentarios, vídeos o fotos cargados por usuarios situados en, digamos, la plaza de Tahrir o en algún otro lugar políticamente explosivo?
En el seguimiento de las revueltas de la primavera árabe, cualquiera que introdujera en Twitter comentarios críticos sobre Bahréin o Siria es probable que recibiera airadas correcciones de los leales al Gobierno o, más probablemente aún, de sus bots (robots informáticos). Asimismo, los activistas tibetanos lamentan que varias etiquetas de Twitter relacionadas con Tíbet tienen tanta propaganda creada por spambots (robots portadores de spam) que han conseguido inutilizarlos.
Para los Gobiernos, la próxima frontera es la de aprender a identificar, adelantarse y desbaratar posibles memes emergentes. Así, una de las agencias de seguridad rusas ha adjudicado recientemente un concurso para crear robots informáticos que pueden tanto reconocer la formación de memes como trastocarlos y contrarrestarlos en tiempo real mediante “la distribución masiva de mensajes en las redes sociales con vistas a la formación de la opinión pública”. Aquí Moscú está aprendiendo de Washington: el año pasado el Pentágono adjudicó un contrato a una empresa de San Diego para la producción de un software para crear múltiples identidades falsas en la Red y “contrarrestar la propaganda enemiga extremista y violenta fuera de Estados Unidos”.
El PRI fue acusado de manipular la Red para lograr convertir en un 'trending topic' un mensaje preestablecido
¿Por qué habría de preocuparse alguien por semejante táctica, dado lo difícil que podría resultar para un bot persuadir a humanos? En primer lugar, la persuasión podría no ser el objetivo. Algunos de tales robots existen solo para que sea más difícil descubrir la oportuna información fáctica sobre, digamos, protestas políticas que se estén llevando a cabo. Toda esa inversión en bots puede haber sido rentable para el Kremlin: durante las protestas que siguieron a las disputadas elecciones parlamentarias de diciembre de 2011, Twitter rebosaba de cuentas falsas que pretendían aplastar a las etiquetas populares con información inútil. Un reciente estudio sostiene que de 46.846 cuentas en Twitter que participaron en la discusión de las disputadas elecciones rusas, 25.860 eran bots, que emitieron 440.793 tuits sobre el tema.
En segundo lugar, los bots pueden añadir lastre numérico a los memes que ya han sido promovidos por humanos prominentes con el fin de situarlos a la cabeza del ranking de virus. Durante las elecciones presidenciales mexicanas de este año, el PRI (cuyo candidato ganó la elección) fue acusado de programar miles de bots para enviar tuits con palabras y frases específicas con objeto de hacer aparecer un mensaje preestablecido en los trending topics de Twitter.
En tercer lugar, los bots más sofisticados pueden cumplir otra función muy interesante: pueden hacer que unos humanos se presenten el uno al otro, por ejemplo mencionando en un mismo tuit sus respectivos nombres de usuarios de Twitter. Un experimento hecho en 2011 por PacSocial, una empresa de analítica centrada en los bots, reveló que estos, de hecho, pueden hacer aumentar las conexiones entre usuarios. Así que, con tan solo algunas manipulaciones inteligentes, los bots pueden hacer que sigas a los humanos adecuados, y son los humanos, no los bots, los que luego influirán en tu manera de pensar.
La digitalización hará que aumente —¡no que disminuya!— el número de mediadores en nuestra vida pública. No hay nada intrínsecamente malo en los intermediarios mientras nos acordemos de mantenerlos a raya. De ese modo, en vez de celebrar el mítico nirvana de la desintermediación, deberíamos esforzarnos por ver el interior de las cajas negras de los algoritmos del spam y de los bots propagandísticos. Puede que nuestro debate público no esté a la altura de nuestros memes, pero no deberíamos olvidar que no todos son creados iguales: algunos ni siquiera son creados, mientras que otros son producto de considerables dosis de astuta e insidiosa planificación.
Evgeny Morozov es profesor visitante en la Universidad de Stanford y profesor en la New America Foundation. Su último libro publicado en España es El desengaño de Internet. Los mitos de la libertad en la Red (Destino).

No hay comentarios:

Publicar un comentario