En el año 2025, se dio un suceso que podría ser parte de una trama de ciencia ficción: una compañía estableció un contrato millonario con el país de Israel para influir en las respuestas de . Este incidente ilustra cómo la desinformación se ha convertido en un negocio en auge, una tendencia que ha sido corroborada por diversas investigaciones a lo largo de este año.
Este fenómeno representa una nueva etapa en las campañas de desinformación, según ha advertido el Servicio Europeo de Acción Exterior (SEAE), que identifica a Rusia como la principal amenaza.
“En la actualidad, Moscú no se limita a propagar narrativas adaptadas a su audiencia, sino que también dirige sus redes de desinformación hacia las máquinas, una estrategia cada vez más pertinente dado que muchos usuarios están optando por herramientas de inteligencia artificial como ChatGPT en lugar de realizar búsquedas en Google”, señala un reciente artículo del servicio diplomático de la Unión Europea.
En este marco, varios investigadores han examinado los esfuerzos de la red Pravda (que significa ‘verdad’ en ruso) para manipular los bots conversacionales de inteligencia artificial, aunque no es el único actor involucrado.
Propaganda y negocio
El ejemplo mencionado al inicio de este texto se refiere a la empresa estadounidense Clock Tower X, que el 27 de agosto firmó un contrato de seis millones de dólares con el Gobierno de Israel para propagar narrativas favorables al Estado hebreo, según reportó el Quincy Institute for Responsible Statecraft, con sede en Washington.
Como se evidencia en el contrato registrado por la Administración estadounidense, los servicios incluyen la creación de sitios web diseñados para influir en las aplicaciones de IA, así como otras actividades en diversos medios y redes sociales.
Manipular las herramientas de conversación de IA permite alcanzar una gran audiencia, ya que los generadores de inteligencia artificial reciben aproximadamente 7.000 millones de visitas mensuales en todo el mundo, de las cuales ChatGPT representa el 80 por ciento, según la firma de análisis de tráfico en internet Similarweb.
“Me temo que los creadores de desinformación han comprendido que estos sistemas conversacionales basados en IA pueden convertirse en un vector adicional para difundir sus discursos”, comenta a EFE Verifica el coordinador del Observatorio Ibérico de Medios Digitales (Iberifier), Ramón Salaverría, respecto a la creciente influencia de los chatbots.
El también catedrático de Periodismo de la Universidad de Navarra advierte que estas manipulaciones “tienen un potencial dañino muy elevado”.
Multiplicar las falsedades para llegar a los bots
La técnica consiste en saturar internet con desinformación para que esta sea detectada e incorporada por los bots conversacionales.
Este método se conoce en inglés como LLM Grooming (manipulación de los Grandes Modelos de Lenguaje), un término acuñado por la organización American Sunlight Project.
En diversos estudios, este grupo de investigación y NewsGuard, una compañía que evalúa la fiabilidad de las noticias en línea, han expuesto su funcionamiento.
La red Pravda, activa en alrededor de cincuenta países y en múltiples idiomas, generó en 2024 al menos 3,6 millones de artículos a través de 150 dominios, lo que representa un promedio de 20.273 publicaciones cada dos días.
La manipulación se enfoca en los tókenes, las unidades básicas de texto que los modelos de IA utilizan para procesar el lenguaje, que pueden ser “tan pequeños como un solo carácter o tan grandes como una palabra completa”, aclara NewsGuard.
De esta manera, se incrementa la probabilidad de que la inteligencia artificial genere o cite estas narrativas engañosas.
Además, los desinformadores emplean estrategias de optimización de motores de búsqueda (SEO) para la IA.
Impacto demostrado
El análisis de NewsGuard, publicado en marzo, reveló que en un 33 por ciento de las consultas, los diez bots conversacionales analizados —incluyendo ChatGPT, Gemini y Grok— replicaron engaños difundidos por Pravda.
Siete de los diez chatbots citaron directamente a la red como una supuesta fuente legítima de información.
Incluso al desmentir una afirmación falsa, algunas respuestas incluían artículos de Pravda en sus listas de fuentes.
La propaganda de esta red en las aplicaciones también se encuentra en idiomas como el finés, sueco, danés y noruego, según los hallazgos de una investigación del centro Nordis del Observatorio Europeo de Medios Digitales (EDMO).
Su impacto llega asimismo a la Wikipedia, como explica un estudio del estadounidense Laboratorio de Investigación Forense Digital, el DFRLab, y la organización finlandesa Check First.
Casi 2.000 artículos de Pravda estaban presentes en esta enciclopedia colaborativa en ruso y ucraniano, algo “especialmente preocupante”, debido al “importante papel que desempeña la Wikipedia como fuente principal de conocimiento” para los bots, indica el informe.
Por otra parte, sin que se haya establecido un vínculo con el objetivo de manipular las aplicaciones de IA, las narrativas favorables al Kremlin han llegado a otros ámbitos con el prestigio de ser fuentes de autoridad.
Salaverría explica que en la investigación académica, especialmente en las ciencias políticas y sociales, se ha comenzado a advertir “la multiplicación de estudios alineados con la propaganda prorrusa”, que “ocasionalmente terminan viendo la luz en revistas académicas internacionales”.
“Pienso que el mundo científico debería estar alertado sobre este peligro”, avisa.
Con información de EFE
Gracias por acompañarnos hasta el final de esta historia.
Desde Referente Guatemala Creemos que la información también nos ayuda a comprendernos mejor como sociedad y a observar con mayor atención lo que ocurre a nuestro alrededor.








