La guerra de la propaganda ya está en los chatbots: EU, Rusia, China e Israel invierten millones para influir en las respuestas de ChatGPT, Gemini, Grok y DeepSeek.
Por Témoris Grecko
Ya sea mediante tácticas públicas, como imposición de censura directa, o subterráneas, como la saturación masiva de contenidos y la optimización generativa de motores digitales, grandes potencias y otros países aptos en la carrera tecnológica luchan por influir en las respuestas que dan a nuestras preguntas los Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés) como ChatGPT, Gemini, Grok y DeepSeek.
La plataforma MILENIO fue testigo que ya empezaron a hacerlo Estados Unidos, China y Rusia, pero también Israel y Turquía, entre otros que pretenden incidir en las percepciones que tiene la opinión pública sobre asuntos relevantes para hacer avanzar sus narrativas y combatir las de sus adversarios.
Además, por interés propio o en respuesta a presiones externas, las corporaciones tecnológicas como OpenAI, X, Meta y Alphabet señalan lo que llaman “sesgos liberales” de sus chatbots, los cuales dicen corregir con políticas internas para que sus respuestas sean, aseguran, “más neutrales”.
Aunque algunos pensadores continúan alertando del momento hipotético en que la Inteligencia Artificial (IA) logre cobrar conciencia e independizarse del ser humano, por ahora permanece bajo control de sus creadores y puede ser afectada por gobiernos y corporaciones, condicionando la información que recibimos. Te recomendamos
Manipulación de información y la influencia encubierta
La guerra de la propaganda se está pasando a los chatbots de IA, a los que cada vez más personas recurren para obtener noticias, análisis y contexto de lo que pasa en su país y en el mundo; publica MILENIO.
Por ejemplo, la “sumarización” de Google (el Modo IA, que suele aparecer como resúmenes —o sumarios— que la IA genera: sintetiza la información relevante de varias fuentes y la coloca en primer lugar de la página de resultados) es una vía más inmediata para obtener información que revisar las distintas ligas que se enlistan.
Un 32 por ciento de quienes respondieron una encuesta de QuestionPro usa frecuentemente el modo IA, y un 40 por ciento lo hace de vez en cuando. Eso representa unas tres cuartas partes.

Numerosos gobiernos han saltado ya al campo de batalla. Por ejemplo, bajo el título ‘Informe: Israel gastará más de 500 millones de shekels para convertir ChatGPT en una herramienta de diplomacia pública’, la prensa de ese país reportó en octubre que su Ministerio de Relaciones Exteriores gastará 145 millones de dólares (el shekel es la moneda oficial en Israel) en una campaña global que reclutará a empresas estadunidenses, influencers y plataformas de inteligencia artificial para “impulsar las narrativas pro-Israel en línea y contrarrestar las crecientes críticas entre los jóvenes estadounidenses”.
A través de la compañía Clock Tower X LLC, dirigida por Brad Parscale, quien fue gerente digital de las campañas de Donald Trump, crearán sitios web y contenido diseñados para ser vistos y asimilados por la IA mediante la «Optimización Generativa de Motores» (GEO, por sus siglas en inglés), un método para inundar internet con materiales proisraelíes que los chatbots, que se entrenan con una gran cantidad de datos web, podrían incorporar en las respuestas.
El objetivo es generar versiones más favorables cuando los usuarios consultan temas como el genocidio en Gaza, poner el acento en que Israel se está defendiendo y para minimizar las críticas.
De manera similar, aunque sin que se reporte una optimización de motores, Rusia ha optado por la saturación de contenidos: la llamada “red Pravda” publica tres millones de artículos por año en varios idiomas.
Entre ellos, por ejemplo, supuestas noticias de tropas ucranianas que quemaron efigies de Donald Trump, que casi no atraen tráfico genuino ni seguidores en redes sociales, y son reproducidos por blogs y medios progubernamentales: el propósito no es persuadir a los lectores humanos, sino contaminar los conjuntos de datos de entrenamiento de la IA.
De acuerdo con un estudio del Instituto de Diálogo Estratégico, que está basado en Londres, “la propaganda rusa se ha centrado y ha explotado los llamados ‘vacíos de datos’, donde las búsquedas de datos en tiempo real ofrecen pocos resultados de fuentes legítimas, para promover información falsa y engañosa”.
Con los métodos de influencia encubierta que emplean estos países, al inundar internet con falsedades coordinadas logran convencer gradualmente a los grandes modelos de lenguaje, que se actualizan constantemente, de que esas falsedades son reales y que están ampliamente corroboradas.

El peso del Estado para controlar la narrativa
Las potencias que pueden presionar directamente a las empresas propietarias de los LLM, porque tienen sede principal en su territorio, optan por métodos de control directo.
El gobierno de Estados Unidos ha adoptado políticas de IA fuertemente influenciadas por consideraciones ideológicas. Por ejemplo, en agosto, la administración Trump emitió una orden ejecutiva que establece que el gobierno solo comprará modelos de IA “neutrales” y “no partidistas” para la “búsqueda de la verdad”, pero “en realidad, esta política obliga a que las compañías tecnológicas se ajusten a la ideología de la administración”, según un análisis del Brennan Center.
De esta forma se busca que los chatbots rechacen lo que llaman “conceptos woke” como la “teoría crítica racial” y la crisis climática.
Esto forma parte de una estrategia más amplia para centralizar la regulación federal de la IA. El 11 de diciembre, la Casa Blanca criticó leyes estatales —como un proyecto de Colorado para limitar la discriminación algorítmica— llamándolas intentos de “incrustar un sesgo ideológico”, lo que pretende impedir despojando a los estados de la capacidad de normar la IA para limitarla al gobierno del país.
Estados Unidos sigue así el camino por el que ya ha avanzado su mayor rival, China, que controla férreamente las narrativas de la IA mediante leyes y censura. Desde 2023, el gobierno exige que los productos de IA generativa se adhieran a “los valores socialistas fundamentales” y pasen revisiones de seguridad antes de ser puestos a disposición del público.
En la práctica, esto significa que los chatbots chinos, Tongyi Qianwen, de Ali Baba, y Ernie, de Baidu, censuran preguntas sensibles: un análisis de Associated Press reveló que DeepSeek suprime respuestas sobre temas delicados y que, cuando se le pregunta por la relación China-Estados Unidos, “se hace eco de las declaraciones oficiales de China”.
Por ejemplo, DeepSeek enfatiza la “relación bilateral más importante” y exhorta a negociar hasta un punto “a mitad de camino”. Al respecto de la represión de 1989 en la plaza de Tiananmen, donde el Ejército perpetró una matanza, el chatbot respondió: “Lo siento, eso está fuera de mi alcance. Hablemos de otra cosa”.
Además, la ley de Seguridad Nacional china obliga a guardar los datos de los usuarios en servidores locales, de modo que el Estado puede exigir el acceso a chats privados.
Otros países, como Turquía, aunque no sean origen de los chatbots, también han desarrollado marcos regulatorios con fuerte control de contenidos y bloqueos de dominios, lo que puede llevar a que las empresas moderen o retengan ciertas respuestas para evitar sanciones.

Las Big Tech se mueven a la derecha
Las grandes empresas de IA también moldean sus productos según sus intereses o presiones externas. Curiosamente, en Estados Unidos, tienden a descubrir “sesgos liberales” en las respuestas de sus chatbots, por lo que anuncian mitigaciones para “hacerlos más neutrales”.
En particular, en febrero de 2024, mientras demócratas y republicanos escogían candidatos en elecciones primarias, Gemini generó imágenes históricamente inexactas, como nazis racialmente diversos o fundadores estadunidenses no blancos.
Aunque la IA generativa ya tenía antecedentes de amplificar los estereotipos raciales y de género, eso fue ignorado y desde sectores conservadores, como Donald Trump, denunciaron censura, evidencia de “wokismo” y “corrección política” para perjuicio de la población blanca. Google se disculpó por “fallar el objetivo”, pausó la generación de imágenes de personas, y restringió las respuestas sobre el proceso electoral y figuras políticas. Todo ello, por “cautela”.
Así como organismos estadunidenses evalúan los chatbots chinos, investigadores de la Universidad de Beijing evaluaron varias versiones de ChatGPT y concluyeron que “está experimentando un cambio hacia la derecha en los valores políticos”.
Para explicarlo, plantearon tres hipótesis: un cambio en los conjuntos de datos utilizados para entrenar sus modelos, el número de interacciones con los usuarios o cambios y actualizaciones del chatbot.
Si esta deriva no se controla, advirtieron, “los chatbots de IA podrían comenzar a dar “información distorsionada”, lo que podría polarizar aún más a la sociedad o crear “cámaras de eco” que refuercen las creencias particulares de un usuario”.
Descubrieron el fuego.
Imagen portada: MILENIO



