Publicado en: El Telégrafo (Ecuador) (20.11.2016)
En los últimos años se ha acusado a Twitter de permitir la multiplicación de bots, aquellas cuentas ficticias que actúan de forma automática imitando un comportamiento humano y que suelen servir para difundir contenidos a favor o en contra de un usuario, campaña, hashtag, etc. La respuesta de Twitter fue que lo estaba controlando y que solo un 8,5% de su conversación provenía de bots. Sin embargo, en estas recientes elecciones estadounidenses la realidad mostró que son muchos más y que, aproximadamente, un 20% de los mensajes sobre Hillary Clinton o sobre Donald Trump fueron generados automáticamente.
Alessandro Bessi y Emilio Ferrara, profesores de la Universidad del Sur de California, expusieron en un estudio que cerca de 400 mil bots estuvieron operando en Twitter durante esta campaña, con 3,8 millones de tuits hablando a favor y en contra de candidatos, o retuiteando compulsivamente. Aunque, de hecho, el 75% correspondió a bots a favor de Trump, especialmente tuiteando en estados del Sur y del Medio Oeste, justo donde el republicano consiguió más votos.
Este ejército de bots actuó con intensidad durante los debates. John Howard, de la Universidad de Oxford, demostró que un tercio de los tuits de apoyo a Trump que se emitieron durante las transmisiones fueron lanzados por robots. Por ejemplo, durante el primer debate, el tráfico a favor de Trump fue considerablemente mayor: casi dos millones de tuits a favor de Trump y solo unos 613 mil a favor de Clinton. Al investigar las características de los mensajes, los investigadores observaron que el 33% de los apoyos a Trump provenía de robots, frente al 22% registrado a favor de Clinton (que también contó con esa ayuda «no humana»).
Esta campaña no ha sido la primera en utilizar cuentas automatizadas. Pero lo diferente —y novedoso— es que este tipo de usuarios ya no se usaron exclusivamente para retuitear mensajes de los candidatos o para trolear a los oponentes, como se venía haciendo, sino que se programaron para responder y participar en conversaciones, incluso intentando convencer a la persona con la que interactuaban. Los autores del estudio arriba mencionado destacan su simulación del comportamiento humano: «Parece que se van a dormir [desconectándose unas horas]. O tuitean 5, 10, 15 tuits de golpe, y luego ninguno durante una hora. Ellos clonan el comportamiento de las personas». La razón es clara: jamás confiaremos ni tendremos en cuenta la opinión de un robot, pero sí la de una persona como nosotros. Mientras más real parezca, más posibilidades hay de conseguir cambiar algo de nuestro pensamiento.
Nicholas Carr, escritor y finalista del Premio Pulitzer, afirmaba en una entrevista reciente: «La tecnología puede desafiarnos y mejorarnos o volvernos criaturas pasivas». Y tiene razón. Los bots nos reducen a un patrón previsible y programable por un algoritmo. Nuestra identidad se convierte en un dato. Y reducen a nuestros representantes y a nuestras instituciones a un proceso de mecanización de la representación, creando atmósferas de retroalimentación que limitan la diversidad y la pluralidad. ¿Qué pasará con la comunicación y con la política en la era de los bots y del Big Data? Es pronto para aventurar un desenlace, aunque ya vamos viendo luces y no pocas sombras. Todo dependerá de nuestra capacidad de autonomía y de nuestra capacidad regulatoria. Mientras, en la política democrática (institucional y electoral) pueden ser, también, un poderoso instrumento para facilitar (mucha) información, haciéndola instantánea y accesible, reduciendo la arbitrariedad del poder, al homologar respuestas y procesos de servicios públicos, por ejemplo. Homologaciones que deben ser objeto de regulación, obviamente. La información digital es y será, cada día más, el derecho natural a la información.
Los partidos políticos y las campañas electorales los van a utilizar con intensidad por su eficiencia, por su eficacia y por su flexible fortaleza. Los programadores serán los nuevos narradores. Y los bots, sin lugar a dudas, formarán parte del nuevo escenario de la tecnopolítica.
Enlaces asociados:
– Bots para la comunicación política (Beerderberg, 2.11.2016)
Interesante punto de vista. ¿Como distinguir un humano de un bot?
Muy simple. Generalmente en el perfil del bot no se puede encontrar ni ver información de la supuesta «persona».
En muchos casos, los bots intentan hacerse pasar por personas. Si son bots con un poco de calidad les habrán dado una foto, una bio, etc. Incluso les hacen tener «conversaciones» de vez en cuando para no levantar sospechas. Normalmente un bot se caracteriza por hacer publicaciones automatizadas ya sean la republicación de una fuente/s externa/s como un diario o hacer RT a otro usuario/s. Otra característica que tienen es el bajo impacto que generan, los pocos seguidores que normalmente tienen y la nula conversación que mantienen con otros usuarios. Estos son aspectos con los que cada vez tienen más cuidado para evitar los filtros que las propias redes como Twitter van poniendo. Saludos cordiales!