Cuando una inteligencia artificial desmintió imágenes reales de una escuela bombardeada en Irán —y una verificación periodística básica probó lo contrario— quedó expuesta una pregunta incómoda: ¿Quién define hoy qué es verdad en medio de un conflicto armado?
El 28 de febrero de 2026, una escuela primaria femenina en el sur de Irán fue alcanzada durante un ataque aéreo conjunto que las partes involucradas describieron como “de precisión”. Los primeros reportes oficiales iraníes hablaron de víctimas fatales entre niñas que se encontraban en el recinto. Rápidamente comenzaron a circular videos e imágenes de la destrucción.
Como ocurre siempre en conflictos armados, la información fue inmediata, fragmentaria y emocionalmente devastadora, pero esta vez la disputa no se limitó al campo militar.
En redes sociales, cuentas alineadas ideológicamente con el gobierno israelí y con sectores del movimiento MAGA comenzaron a cuestionar la veracidad de las imágenes. El argumento central no fue una investigación independiente, sino una respuesta emitida por Grok, la inteligencia artificial integrada en la plataforma X, propiedad de Elon Musk. Según esa herramienta, los videos no correspondían al ataque en Irán, sino a un atentado ocurrido en Kabul en 2021.
La afirmación fue categórica. Y viral.
Sin embargo, horas después, la agencia EFE, a través de su unidad de verificación, confirmó que las imágenes sí correspondían al ataque reciente. La comprobación no requirió tecnología futurista ni acceso privilegiado: bastó con una geolocalización mediante Google Maps y la comparación arquitectónica del entorno.
Sí. Una tarea básica de verificación periodística desmintió el “desmentido” algorítmico.
El problema no es que una inteligencia artificial pueda equivocarse. Eso es técnicamente comprensible. Los modelos funcionan mediante patrones probabilísticos, asociaciones previas y datos de entrenamiento que no siempre están actualizados o contextualizados en tiempo real. Pueden confundir similitudes visuales, anclarse a eventos antiguos muy indexados o responder con exceso de confianza cuando su nivel interno de certeza es solo estadístico.
El problema es otro. El problema es que su respuesta fue utilizada como árbitro definitivo de la verdad.
Cuando un usuario dice “la IA lo desmintió”, está trasladando la autoridad epistémica desde el periodismo, la evidencia empírica y el análisis contextual hacia un sistema algorítmico privado. Ese desplazamiento es profundo y peligroso.
Es que las IA no son neutrales, están entrenadas con datos seleccionados, operan bajo criterios corporativos, no transparentan completamente su proceso de inferencia y, sobre todo, no asumen responsabilidad editorial ni moral.
Las IA como campo de batalla
En contextos bélicos, donde la información es parte del arsenal estratégico, las herramientas tecnológicas pasan a integrar el campo de batalla. No solo amplifican narrativas: pueden alterarlas, desacreditarlas o sembrar dudas con una velocidad que supera ampliamente la capacidad de corrección posterior.
Aquí emerge un fenómeno especialmente delicado: la niebla informativa. Cuando un hecho real es desmentido erróneamente por una fuente percibida como técnica y objetiva, la corrección posterior nunca alcanza el mismo impacto y, por supuesto, lo que queda no es certeza, sino confusión. Y la confusión beneficia siempre al actor con mayor capacidad de amplificación.
Desde la psicología social, este proceso activa mecanismos conocidos: confirmación ideológica, tribalismo identitario y fatiga cognitiva. La ciudadanía no solo se polariza; se agota. Y cuando se agota, deja de verificar o, peor aún, deja de creer en cualquier cosa. Ese es el riesgo más profundo: no que una IA se equivoque, sino que la verdad se vuelva opcional.
Este caso demuestra algo fundamental: las inteligencias artificiales pueden ser herramientas útiles de apoyo, pero no reemplazan la verificación humana, contextual y geoespacial. Una respuesta automática no sustituye el trabajo periodístico, ni la triangulación de fuentes, ni el análisis de evidencia primaria.
Delegar en algoritmos privados el rol de árbitros supremos en tiempos de guerra no fortalece la información; la fragiliza.
La autoridad de lo real
En las guerras contemporáneas se disputan territorios, pero también se disputan relatos. Si aceptamos que un algoritmo pueda dictaminar la inexistencia de una tragedia sin contraste riguroso, estamos cediendo algo esencial: la responsabilidad humana de verificar, contextualizar y pensar críticamente.
Porque la inteligencia artificial puede asistir pero no debe sustituir el juicio. Defender la verdad —con evidencia, con método y con prudencia— no es un acto ideológico, es un acto cívico y, en tiempos de guerra, quizás sea el más urgente de todos.
______________________________
COMUNICADO DEL CONSEJO DE REDACCIÓN DE EFE SOBRE LA NOTICIA DE ESCUELA EN IRÁN
A propósito de la polémica, el Consejo de Redacción de EFE emitió la siguiente declaración pública a través de sus redes sociales:
El periodismo riguroso no puede estar a merced de errores algorítmicos.
Desde el Consejo de Redacción de EFE Noticias denunciamos cómo la IA de Grok ha atacado nuestra credibilidad con información falsa y una rectificación invisible.
¿Qué ha ocurrido? Grok afirmó falsamente que un vídeo distribuido por EFE sobre el bombardeo a una escuela femenina en Irán era, en realidad, un vídeo de 2021 en Kabul. Es una acusación ROTUNDAMENTE FALSA. Las imágenes son actuales y están verificadas.
Grok acabó rectificando, pero aquí reside el peligro: el algoritmo NO ha premiado la rectificación con el mismo alcance que el ataque inicial.
La mentira voló; la verdad ha sido silenciada por el diseño de la propia plataforma.
Medios como RTVE y Antena 3, que informaron con rigor sobre estas imágenes, también han visto su trabajo puesto en duda por una IA.
Los periodistas de EFE trabajamos bajo procesos de verificación. El error humano es posible pero nos rigen la ética y el contraste de fuentes.
Nuestro apoyo incondicional a los cientos de profesionales de EFE Noticias que trabajan con rigor diario. Cada jornada generan miles de informaciones verificadas, en todos los formatos y desde todos los rincones del mundo. Su compromiso es nuestra mayor garantía.
*Constanza Schaub, peridodista – equipo de elmaipo.cl
El Maipo




