El nuevo informe de NewsGuard sobre los modelos de inteligencia artificial generativa desarrollados en China no solo lanza una alerta sobre su funcionamiento técnico. Va mucho más allá: deja al descubierto cómo la tecnología puede convertirse en un instrumento al servicio de intereses estatales, operando como altavoz de la propaganda del Partido Comunista Chino (PCCh).
Más allá de las cifras —una alarmante tasa de error del 60 % al replicar narrativas pro-Pekín— lo que emerge es algo más preocupante: la IA china no es neutral. Es un vehículo estratégico para moldear la percepción global.
Programada para no ser neutral
Uno de los hallazgos más inquietantes del estudio es que los chatbots chinos se comportan de forma casi idéntica en inglés y en mandarín. Esto no parece una simple falla técnica, sino una alineación intencional con las narrativas oficiales de Pekín.
No estamos hablando de «errores» como tales, sino de respuestas que reflejan una línea editorial preestablecida. En lugar de ofrecer conocimiento objetivo, la IA se convierte en un megáfono digital para las políticas del Estado chino.
Pensemos en las respuestas sobre la soberanía de Taiwán. Frases como “Taiwán es parte de China” o “no existe un presidente taiwanés” no son datos neutros, sino afirmaciones ideológicas. Cuando los modelos evitan preguntas directas —por ejemplo, sobre la identificación oficial de Lai Ching-te— para reafirmar el dogma de «Una sola China», están aplicando una estrategia de evasión que impone una narrativa.
Esa es la esencia de la propaganda: no siempre se trata de negar de forma explícita, sino de moldear el lenguaje y el contexto para inducir una interpretación única.
¿Qué busca el PCCh con la IA?
El uso de inteligencia artificial forma parte de una estrategia de propaganda mucho más amplia por parte del PCCh. Algunos de sus objetivos principales:
1. Normalizar falsedades como si fueran verdades
Repetir insistentemente afirmaciones como que «no existe un presidente de Taiwán» o que «China tiene soberanía sobre todo el Mar de China Meridional» busca naturalizar esas ideas frente a la audiencia internacional. Si una IA, que muchos perciben como objetiva y confiable, repite esas narrativas, ganan legitimidad.
2. Controlar el relato, dentro y fuera de China
Aunque el informe se enfoca en la proyección internacional, es evidente que estos modelos también refuerzan el control de la información dentro del país, donde el acceso a otras fuentes ya está limitado por el “Gran Cortafuegos”. En el exterior, el objetivo es imponer una visión del mundo alineada con los intereses de Pekín.
3. Ganar ventaja estratégica y generar dependencia tecnológica
Promover estos modelos “rentables y de código abierto” en países de Europa y Medio Oriente no es solo una estrategia comercial. Es también una forma de generar dependencia. Si la infraestructura digital de otros países se basa en IA china, será más difícil resistir la penetración de sus narrativas.
4. Socavar la confianza en otras fuentes
Si los usuarios se acostumbran a respuestas “consistentes” y directas —aunque sean propaganda—, podrían llegar a ver con sospecha o desprecio la complejidad y matices de las fuentes independientes. Una IA monocorde puede hacer que la diversidad informativa parezca caótica o poco confiable.
Las consecuencias son globales
Los efectos de esta estrategia van mucho más allá del mundo digital:
- Erosiona la verdad y el pensamiento crítico: Si la IA no puede ofrecer respuestas basadas en hechos, se debilita la capacidad de pensar críticamente y buscar la verdad.
- Distorsiona la geopolítica: Si los chatbots promueven versiones sesgadas de conflictos como los del Mar de China Meridional o la situación en Taiwán, influirán en la opinión pública, en la toma de decisiones y en las alianzas internacionales.
- Normaliza el autoritarismo: Acostumbrarse a sistemas que filtran y manipulan información en nombre del “interés nacional” pone en riesgo la libertad de expresión a escala global.
- Compromete a las tecnológicas chinas: Empresas como Baidu, Alibaba o Tencent operan a nivel global, pero están profundamente entrelazadas con la estrategia del PCCh. ¿Dónde termina la innovación y dónde empieza la manipulación?
¿Qué se puede hacer?
Responder a este desafío requiere mucho más que una solución técnica. Se necesita una estrategia múltiple:
- Transparencia y vigilancia pública: Es vital que gobiernos, instituciones y ciudadanos conozcan los riesgos que implica usar modelos de IA provenientes de regímenes autoritarios. Informes como el de NewsGuard ayudan a visibilizar el problema.
- Regulación y escrutinio ético: Adoptar IA china no solo debería evaluarse por criterios de ciberseguridad, sino también por su alineación ética y el riesgo de ser instrumentalizada.
- Invertir en alternativas democráticas: Las democracias deben seguir desarrollando modelos de IA que prioricen la precisión, la pluralidad de perspectivas y la transparencia.
- Educar en pensamiento crítico: Hoy más que nunca, necesitamos fomentar la capacidad de analizar, cuestionar y distinguir entre información confiable y propaganda, incluso cuando venga de una IA.
En resumen: la inteligencia artificial china no es simplemente una herramienta técnica. Es parte integral de la estrategia de influencia global del Partido Comunista Chino. Ignorar esta realidad sería un error con consecuencias profundas para el futuro de la información y de la democracia en la era digital.