24 de Abril de 2018
Por:
Catalina Barrera

Sacar partido de las redes sociales utilizando cuentas falsas para manipular la información es cada vez más común en medio de contiendas electorales. ¿Qué son y cómo funcionan los denominados bots, que pueden actuar casi como humanos y usar estas plataformas a su antojo?

En 'bots' confío

Las redes sociales se han convertido en una herramienta de trabajo para miles de personas y empresas que difunden contenidos, desarrollan estrategias y generan debate a través de estas. Facebook, Twitter e Instagram, por nombrar las más populares, son plataformas indispensables de crecimiento y reconocimiento. Sin embargo, no todo es lo que parece. Del mundo virtual sabemos poco. Aunque parezca que en las redes sociales creamos controversia con ciertos comentarios, puede que simplemente estemos siguiendo órdenes de un robot sin darnos cuenta.

 

Hace más de 50 años Joseph Weizenbaum, un alemán profesor de informática, se puso en la tarea de lograr que una máquina sostuviera una conversación coherente con una persona a partir de ciertas palabras clave. Entre 1964 y 1966, inventó Eliza, un programa pionero en la relación humano-máquina. Medio siglo después, con el desarrollo de la inteligencia artificial, la idea de que una máquina pudiera pensar dejó de ser descabellada. Llegaron los videojuegos, que hicieron de la consola un contrincante. Aparecieron los chats que despejaban dudas en herramientas como Word o Excel. Emergieron las voces que daban instrucciones desde los teléfonos móviles. Nacieron los secuestradores de información en la red y hasta se crearon canales para enviar spam de manera masiva a miles de usuarios. A todos esos se les llamó bots.

 

Según Juan Pablo León, director del Laboratorio de Informática Forense de Adalid, “un bot es una necesidad hecha programa”. Puede hacer casi todo lo que un ser humano hace en la red, solo que lo desarrolla en línea: buscar información, resolver dudas, sugerir sitios, escribir correos, buscar nuevos amigos, sugerir rutas de tráfico… Esas acciones se automatizan a través de diferentes programas que cumplen órdenes específicas. Hay bots para casi todo lo que se pueda imaginar en la red. Si uno quiere jugar, hay un bot disponible; si quiere debatir con alguien, un bot puede contestarle; si quiere buscar cómo está el tráfico entre un punto y otro, hay un bot para responderle. Y existen expertos que los crean. En otras palabras, un bot es como los clones de Star Wars, pero en la red. Si lo que quiere es tener seguidores, hay bots dispuestos a seguirlo. También los hay que secuestran información, intervienen servidores y hacen bulling digital con información falsa. Los bots son bases de datos a disposición de quien los maneje, con fines menos malévolos que otros.

 

El término se popularizó durante las elecciones presidenciales de Estados Unidos el año pasado. Una investigación realizada por la Universidad de Oxford y encabezada por el profesor Philip Howard, rastreó la actividad política en Twitter de los dos candidatos y descubrió que el tráfico de hashtags (etiquetas) pro Trump era dos veces más alto que los hashtags pro Clinton durante el primer debate presidencial. El equipo que realizó el estudio descubrió que el 33% de ese tráfico pro Trump estaba impulsado por bots y cuentas altamente automatizadas, en comparación con el 22% de Clinton.

 

‘Manipulabots’

Tal comportamiento atrae a los seguidores reales y los manipula. Jeremy Straub, director asociado del Instituto de Educación e Investigación en Seguridad Cibernética de la Universidad Estatal de Dakota del Norte, explica que “esos bots se usan comúnmente para actividades de marketing. Las empresas usan software para identificar a las personas que probablemente estén interesadas en comprar su producto o servicio para tratar de llegar a ellas y presentarles incentivos especiales. Técnicas similares son usadas por los candidatos para tratar de influenciar a los votantes. Intentan generar apoyo en aquellos que les gusta el candidato y alientan a aquellos que están indecisos a favorecer a su candidato. Al orientar los recursos a las ubicaciones que tienen más probabilidades de generar resultados positivos, se puede maximizar el beneficio de los recursos limitados de la campaña”.

 

Para entender el mecanismo, el robot ­–que generalmente vemos como un usuario más– interactúa con los participantes reales y toma acciones diseñadas para tratar de convencerlos de que apoyen o rechacen a un candidato. Hay diferentes tipos de bots. La mayoría de estos realizan tareas útiles. Por ejemplo, unos se usan para monitorear redes e identificar las configuraciones incorrectas de un sistema. Otros, por el contrario, se utilizan con fines nefastos y pueden llegar a atacar sistemas informáticos de modo que queden inservibles.

 

Pero “los bots políticos, que pretenden ser cuentas humanas, son intrínsecamente manipuladores, porque están impulsando una agenda política específica usando el engaño y la distorsión. Típicamente disfrazados de cuentas humanas comunes, los bots han sido responsables de diseminar información errónea y contribuir a un clima político agrio en sitios como Twitter y Facebook. Son muy efectivos para atacar a los votantes del campo contrario e incluso desalentarlos para que vayan a la cabina de votación”, afirma Vyacheslav Polonski, investigador del Oxford Internet Institute.

 

Pero además de desestimar a sus contrincantes, los candidatos pueden acceder a bots que simplemente sumen un número más entre sus seguidores en redes sociales. Todo con la finalidad de generar confiabilidad. La ecuasión no está muy lejos de la realidad. Funciona igual si hay dos restaurantes en la misma calle y uno tiene más comensales que el otro. Quien pase por el lugar va a sentirse más atraído por el que está lleno y no por el que está vacío.

 

León, Straub y Polanski coinciden en que no hay una gran empresa detrás de los bots políticos. En su mayoría, son pequeños grupos descentralizados de robots coordinados por organizaciones partidistas determinadas. “Intentan mantenerse alejados de los grandes partidos políticos para evitar cualquier afiliación oficial o asociación directa con líderes políticos conocidos. Es por eso que son tan peligrosos, porque se operan ‘desde la oscuridad’ y no hay mucho que los gobiernos puedan hacer para controlarlos”, dice Polonski.

 

Persecución virtual

Empresas como Twitter y Facebook ya intentan prohibir activamente estas cuentas falsas, pero los bots siguen apareciendo, aun cuando se han desterrado miles de estos. Parece como si en lugar de bots se luchara contra la mítica Hidra de Lerna, a quien cortarle una cabeza le significaba dos más en su lugar.

 

Identificar que alguien está haciendo uso de usuarios falsos, o bots, se puede develar por un crecimiento poco usual de seguidores. “No es normal que un candidato suba un 10% sus seguidores en una semana, no es un comportamiento habitual”, cuenta León. La malicia de la programación también hace que aparezcan bots de otros países para que no sean tan rastreables. Sin embargo, pistas de la procedencia de esas cuentas también pueden ser herramientas útiles para discriminar a un seguidor real de uno falso.

 

La actividad del perfil falso también es determinante. Si su nombre en la red combina letras y números poco usuales o tiene nombres ilegibles, puede estar diseñado por un software que lo creó masivamente. Si solo comparte contenido proveniente de otras cuentas o hace una misma acción, como escribir alguna frase reiteradamente, puede estar diseñado para crear tendencias en la red y lograr que eso que está diciendo resalte entre los cientos de perfiles que están lanzando información cada segundo.

 

Como sea que actúen, estas cuentas falsas o clonados seguirán compartiendo información y escabulléndose entre nosotros, los usuarios reales. Poco o nada podremos hacer contra estos pero sí a favor de nosotros. Entender el concepto y su funcionamiento ­­­­­por lo menos puede crear el beneficio de la duda frente a la masiva información que consumimos a diario. Mientras tanto, que los robots sigan hablando.

 

 

¿Y en Colombia qué?

 

Un estudio realizado por LOOR, una agencia de comunicaciones y relaciones públicas que ayudan a elevar, reparar o construir la imagen de una marca o un branding personal y Adalid Corp, pionera en Latinoamérica en prevención y gestión de fraude en entornos virtuales, reveló, por medio de herramientas de analítica propias, hallazgos de evidentes falsos seguidores en Twitter de los precandidatos presidenciales analizados de diciembre de 2017 al 30 enero de 2018. Paola Méndez, directora general de LOOR, explicó que las diferentes cuentas que suponían ser seguidores de los candidatos, se ingresaron en el software de LOOR para poder identificar las que tenían algún tipo de inactividad inusual. Luego, esas cuentas fueron enviadas al laboratorio de Adalid para identificar el país de origen. “No nos centramos en la clase o en el tipo de bot sino en la inactividad o la falta de frecuencia que registran esas cuentas”, explicó Méndez. Estos fueron los resultados de seguidores reales en las cuentas de los candidatos:

 

 

Humberto De la Calle

Twitter: 48.319 seguidores (98% reales)

 

Sergio Fajardo

Twitter: 1’015.900 seguidores (65% reales)

 

Gustavo Petro

Twitter: 2’841.402 (60% reales)

 

Germán Vargas Lleras

Twitter: 719.191 (62% reales)

 

Iván Duque

Twitter: 132.195 (84% reales)

 

 

*Publicado en la edición impresa de marzo de 2018.