Aunque la tecnología de inteligencia artificial es nueva, la guerra de información es tan antigua como el conflicto mismo. Durante miles de años, la gente ha utilizado la propaganda, el engaño y las operaciones psicológicas para influir en las decisiones y la moral de sus oponentes. Por ejemplo, en el siglo XIII, los mongoles destruyeron ciudades enteras sólo para que los rumores se extendieran a las vecinas, con el objetivo de quebrantar la moral y obligarlas a capitular antes de que llegaran las tropas.
El desarrollo de la tecnología ha abierto nuevos horizontes en la guerra de la información. Desde la Segunda Guerra Mundial hasta la Guerra del Golfo de 1991, los aviones lanzaban panfletos para difundir rumores y propaganda. Durante la Guerra de Vietnam, las transmisiones de radio en inglés presentadas por Hanoi Hanna (nombre real Trần Tho Ngo) se burlaban de las tropas estadounidenses con listas de sus ubicaciones y bajas para bajar la moral. La propaganda radiofónica también demostró su efecto destructivo cuando se utilizó para llevar a cabo el genocidio de Ruanda en 1994.
Lo que estamos viendo hoy es el siguiente paso en esta evolución: desde la prensa escrita, la radio y la televisión hasta las redes sociales. Si la Primera Guerra del Golfo fue la Guerra de la CNN, entonces el conflicto de 2025 y 2026 entre Estados Unidos, Israel e Irán puede verse como la primera guerra de TikTok y la primera gran guerra de IA.
La IA ha marcado el comienzo de nuevas formas de guerra de información dirigidas a la percepción, el entorno de información y la confianza en uno mismo. Los videos generados por IA en particular han cambiado fundamentalmente la forma en que los estados y los actores no estatales libran la guerra de información, manipulan a las poblaciones y compiten no solo en el Golfo sino también en el escenario global.
Estos “medios sintéticos” a menudo se utilizan y distribuyen para reproducir imágenes falsas de acontecimientos reales, desde devastadores ataques militares que en realidad nunca ocurrieron hasta vídeos falsos de funcionarios pidiendo un alto el fuego.
Pero esta tecnología también crea de manera convincente y sencilla material propagandístico que es evidentemente falso. El ejemplo más destacado son los vídeos virales iraníes de Lego, que repetidamente -y con mucho éxito- se burlaron de Israel y Estados Unidos durante toda la guerra.
Armas digitales
Para comprender completamente el potencial destructivo de los videos de IA, podemos retroceder y observar las especulaciones futuristas de las novelas distópicas de ciencia ficción. El autor de ciencia ficción William Gibson acuñó el término “ciberespacio” en su novela Neuromante de 1983, describiéndolo como una “alucinación de consenso”, no una realidad, sino más bien una “representación gráfica de datos extraídos de los bancos de cada computadora del sistema humano”.
Pero cuando las herramientas digitales como los vídeos de inteligencia artificial y las redes sociales se utilizan como armas, la barrera entre el ciberespacio y la realidad física se vuelve permeable. Ya no están creando realidad virtual, sino lo que el teórico francés de los medios Jean Baudrillard llamó “hiperrealidad”. Este término describe un estado en el que la distinción entre realidad y una simulación de la realidad se vuelve borrosa, y la simulación parece “más real que real”.
En el centro de la obra de Baudrillard se encuentra el concepto de “simulacro”: copias o imágenes de algo que realmente existe. Clasificó los simulacros en tres órdenes. El primer orden es la falsificación preindustrial: una copia exacta o réplica del objeto real, y el segundo es el objeto producido mecánicamente en masa.
Los simulacros de tercer orden son simulaciones o signos que no tienen absolutamente ninguna forma física. Tomemos como ejemplo los vídeos iraníes de Lego, que muestran escenas en las que Trump y Netanyahu utilizan la guerra iraní como excusa para distraerse de los archivos de Epstein adorando a la deidad pagana cananea Baal. No tienen nada que ver con las intenciones de la empresa danesa que fabrica los omnipresentes juguetes de ladrillos de plástico y, sin embargo, han ganado una enorme popularidad como propaganda viral de memes, tanto en Occidente como en todo el mundo.
La IA es el mensaje
El contenido de los vídeos de IA en Irán, Estados Unidos e Israel es naturalmente bastante diferente, ya que cada uno busca socavar las narrativas de sus oponentes. Pero los videos de IA publicados en las redes sociales también envían un mensaje: estos videos trascienden las fronteras enemigas de una manera que los medios anteriores no podían.
A diferencia de folletos, transmisiones de radio y cadenas de televisión anteriores, la producción y el consumo de IA no están vinculados geográficamente. Cualquiera puede crearlo y verlo en cualquier lugar, ya sea en Teherán, Tel Aviv, Washington o cualquier otro lugar del mundo. Esto ha creado una nueva era de diplomacia pública digital, descentralizada, viral y sin fronteras.
Deepfakes, propaganda y la “destrucción de la verdad”
A diferencia de los vídeos iraníes de Lego, los deepfakes creados por inteligencia artificial presentan contenido realista pero completamente fabricado, lo que dificulta a los espectadores distinguir la verdad de las mentiras. Las primeras versiones eran toscas y fácilmente identificables, pero los deepfakes modernos han alcanzado un nivel de fotorrealismo y autenticidad que puede engañar incluso a observadores experimentados y a sistemas de detección automatizados.
Durante la llamada “Guerra de los 12 Días” en 2025 en Israel e Irán, los deepfakes de inteligencia artificial y las imágenes de videojuegos intentaron replicar combates reales. Las imágenes manipuladas incluían escenas de aviones israelíes destruidos y edificios derrumbándose en Tel Aviv y su aeropuerto, mientras que otras mostraban ataques israelíes contra Teherán que dejaron una intersección llena de cráteres y automóviles esparcidos.
Pero la credibilidad no siempre es de suma importancia. Una imagen que circuló ampliamente de un avión de combate israelí F-35 derribado fue tomada de un juego de simulador de vuelo. El avión era claramente demasiado grande en comparación con los observadores en tierra, pero eso no impidió que la imagen se volviera viral (tiene 23 millones de visitas en TikTok) o fuera compartida por redes simpatizantes de Rusia ansiosas por demostrar la vulnerabilidad de los aviones fabricados en Estados Unidos.
En total, los tres vídeos deepfake más vistos durante la guerra de 2025 recibieron 100 millones de visitas en las redes sociales. Un vídeo deepfake que circula en Facebook incluso muestra a funcionarios israelíes suplicando a Estados Unidos que haga cumplir el alto el fuego, declarando que “ya no podemos luchar contra Irán”.
Este contenido se compartió en TikTok, Telegram y X, donde el chatbot de IA Grok no pudo identificar videos manipulados que presentaban imágenes de otros conflictos.
Los juristas han acuñado los términos “dividendo del mentiroso” y “declive de la verdad” para caracterizar esta tendencia actual de fabricar la realidad. Estos términos se refieren a un panorama mediático donde las falsificaciones impulsadas por inteligencia artificial arrojan dudas incluso sobre evidencia legítima, erosionando la confianza hasta el punto en que cualquier imagen o elemento multimedia ahora puede descartarse como un deepfake.
Las últimas guerras de 2025-2026 demuestran que a medida que las naciones se apresuran a desarrollar drones, misiles y sistemas de defensa, se está desarrollando una carrera armamentista paralela en línea. La revolución digital, junto con los avances en inteligencia artificial, ha aumentado exponencialmente la velocidad, escala y complejidad de la manipulación de la información. Este conflicto presagia una nueva era de guerra de información en la que las tecnologías de inteligencia artificial se utilizan como armas para influir, perturbar y desestabilizar a los adversarios.

