Por Rita Piris ([email protected])
La manipulación de la información en las operaciones polĆticas no es una novedad. Existe desde antes del nacimiento de internet, pero a medida que la tecnologĆa avanza, se renuevan las herramientas de gestión orientadas a influir en la opinión pĆŗblica. En forma paralela, este avance alimenta la batalla contra la desinformación.
La masacre de Ayotzinapa, en MƩxico
En 2014, frente a la desaparición y la masacre de los 43 estudiantes de Ayotzinapa y en un escenario de censura total para el periodismo, las redes sociales ocuparon un rol central para exigir justicia y expresar la furia social con el hashtag (etiqueta) #ya me cansé, convertido en trend topic durante varias semanas.
DespuĆ©s se supo desde AmnistĆa Internacional, que AndrĆ©s SepĆŗlveda, un tĆ©cnico informĆ”tico, habĆa manejado 30 mil cuentas de Twitter para desacreditar ese hashtag, generar opinión favorable hacia el gobierno mexicano y difamar a las organizaciones y las familias que luchaban para exigir información y justicia por las desapariciones. AdemĆ”s salieron a la luz cerca de 75 mil cuentas automatizadas desde granjas de trolls que fueron financiadas por el gobierno de Enrique PeƱa Nieto, segĆŗn la conclusión a la que llegó una investigación en torno a los hechos.

El Caso Santiago Maldonado
Con el caso de Santiago Maldonado, en Argentina ocurrió un hecho similar cuando se lanzaron una serie de tweets y retweets para hostigar a la familia de Santiago, sumados a la intención de instalar noticias falsas y generar una polaridad en la sociedad. Alrededor de 20 cuentas de Twitter llegaron a publicar 837 tuits en dos horas, segĆŗn manifestó Luciano Galup, responsable de la consultora que analizó este hecho. AsĆ es como operan en diversos planos de interĆ©s pĆŗblico estas estructuras abocadas al marketing polĆtico, cuyo fin es amedrentar, desinformar y manipular la opinión pĆŗblica general.
JuliĆ”n MacĆas Tovar, es un periodista espaƱol que actualmente desarrolla una labor importante en la lucha contra la desinformación en los medios y particularmente en las redes sociales. En este sentido, relata la dinĆ”mica en que se desarrolla el sistema de granjas de trolls y bots: Ā«algo que es muy interesante es la simplificación del debate cuando hay una contaminación en la conversación digital y la falta de argumento cuando demuestras que hay cuentas automatizadas o cuentas falsasĀ».

Todos para uno, y uno vĆctima de todos
MacĆas Tovar puntualiza que Ā«en el anĆ”lisis que yo hago de diferentes tipos de cuentas, se distinguen dos categorĆas, cuentas falsas y cuentas reales. Entre las dos generan el total de las cuentas que participan en una conversación digital. Pero las cuentas falsas involucran tres tipos de cuenta. Las mĆ”s antiguas, donde por unos pocos pesos te ofrecen una cantidad de seguidores y sólo se usan para aumentar el numero de seguidores para un perfil. Y las cuentas automatizadas, llamadas tambiĆ©n ‘bots’ (robots) en las que no se necesitan acciones humanas sino que se las mantiene a travĆ©s de la programación de su actividad. Normalmente son las mĆ”s habituales. Conforman una matriz de opinión y difusión, y en general, su actividad diaria son retwits programados con cierto algoritmoĀ».
Asegura MacĆas Tovar que otro sistema de desinformación es el llamado Ā«sock puppetsĀ» y que el uso de estas cuentas normalmente suele ser masivo. Es decir, una persona, una empresa o un medio de comunicación crea muchas cuentas falsas con las cuales se puede fomentar una conversación coral, o abrumar a una persona u organización con un ataque intensivo, denominado tambiĆ©n trolleo, haciendo creer que es muy masiva la conversación con un argumento que repiten tambiĆ©n de manera fuerte y copiosa.
«Cuando uno analiza la matriz de todas estas cuentas falsas, ve que las que tienen actividad de responder siempre, lo hacen a las mismas cuentas, por ejemplo. O retuiteando y repitiendo directrices semÔnticas en la narrativa que han de construir. Por otra parte, participando en hashtags para que se conviertan en tendencia, con un objetivo concreto«, describe el periodista.

NeurolinguĆstica para el mal
Ā«Esto es el espectro mĆ”s sencillo de las cuentas falsas, pero luego tambiĆ©n existen hĆbridos, que tienen una parte totalmente automatizada, aƱadida a la mecĆ”nica de trolleo que activan personas por detrĆ”s. Ahora se estĆ” implementando un mĆ©todo con herramientas de Machine Learning para trollear, que tiene una conversación completamente humana y no hace falta ni siquiera contratar a personas reales para que lo hagan. Con un ingeniero capacitado que maneje recursos semĆ”nticos, Ć©l mismo construye ejĆ©rcitos que te pueden den una paliza narrativa. Como si se tratara de ajedrez, te va a ganar siempre en el debate, y van a ser mĆ”s inteligentes que las personas entrenadas para el debateĀ», detalla MacĆas Tovar.
Por otro lado, el comunicador espaƱol explica que las cuentas reales de Twitter pueden estar organizadas o bien en grupos de asociaciones de intereses comunes o partidos polĆticos, militantes, empresas, etcĆ©tera, que se coordinan para realizar las acciones discursivas en la red, en un tiempo y forma determinados.
Sostiene ademÔs que hay una zona gris de gente que ya tiene un sesgo ideológico o incluso una conexión emocional, a la que le da exactamente igual lo q sea verdad o lo que sea mentira, y que linealmente siempre va a opinar lo mismo o va a reforzar las mentiras cuando que respondan a una creencia previa. Esto es lo que se denomina «sesgo de confirmación» y contribuye a la instalación de información falsa.

Ā«El objetivo de toda esta estrategia y todo lo mencionado antes, es un abuso que se vale de un mĆ©todo cientĆfico, de una ingenierĆa de sistema que es bastante efectiva, en la que todas estas formas que hemos detallado trabajan en forma sinĆ©rgica para intentar enlazar esa zona gris a la conexión emocional de las personasĀ», relata MacĆas Tovar. Afirma en este sentido, que segĆŗn un estudio realizado con datos extraidos de la red social Facebook, las noticias falsas son compartidas seis veces mĆ”s que las noticias reales.
El sistema, por dentro
Alejandro X, que en realidad tiene otro nombre pero pide preservar su identidad, es un hacker mexicano que maneja granjas de cuentas automatizadas a pedido. ¿Cómo se organiza una campaña de desinformación para influir en la opinión pública? Asà lo explica.
Ā«Tenemos servidores donde trabajamos sobre hashtags con una cuenta madre que cuando se acciona, activa todos los robots. Se trabaja en servidores con mĆ”quinas virtuales para que no haya ningĆŗn rastreo. Hemos trabajado en varios paĆses de LatinoamĆ©rica para elecciones presidenciales, y muy frecuentemente trabajamos en MĆ©xico, tanto para empresas como para polĆticosĀ», narra AX.

Ā«Hay un software de procedencia hindĆŗ que se llama ‘Facedominator’, ‘Twitterdominator’ e ‘Instagramdominator’, con el que se reĆŗnen cuentas y se pueden hacer diferentes acciones. Se trabaja sobre cuentas madre. Todos los dĆas se pueden programar acciones nuevasĀ», reconoce Alejandro, y asegura que este tipo de recurso se utiliza para crear percepción sobre los candidatos durante una elección: Ā«a la hora de elegir candidatos, esta es una prĆ”ctica que se utiliza para hacer creer que un gran tramo de la ciudadanĆa estĆ” con tal o cual candidatoĀ».
Consultado sobre la cuestión Ć©tica de promover discursos de odio o noticias falsas, Alejandro X asegura que la responsabilidad es de las plataformas de las redes sociales y su falta de restricciones. A pesar de esta afirmación, actualmente la red social Twitter, que por sus caracterĆsticas es una de las plataformas con mayor facilidad para ser intervenida por las granjas de bots y trolls, presenta cada vez mĆ”s restriccciones. Un ejemplo, lo ocurrido con los tweets de Donald Trump del 29 de mayo de 2020, previos a las elecciones en Estados Unidos. Pese a ello, la publicación de discursos de odio y la reproducción de rumores y mentiras, son cada vez mĆ”s comunes en el ecosistema digital cotidiano.