El sábado 28 de febrero, la agencia española EFE difundió videos e imágenes del ataque en una escuela femenina en Minab, Irán, donde murieron más de 100 personas, incluyendo al menos 85 estudiantes. El material fue compartido con apoyo de agencias iraníes y validado mediante geolocalización en Google Maps.
Sin embargo, Grok, el asistente de inteligencia artificial de Elon Musk en la plataforma X, generó controversia al indicar que las imágenes correspondían a un atentado ocurrido en Kabul en 2021. Esta afirmación provocó críticas hacia EFE y desató dudas en redes sociales.
La agencia respondió rápidamente a través de @EFEVerifica, aclarando que el contenido es auténtico y corresponde al reciente bombardeo en Irán. A pesar de que Grok corrigió su error más tarde, la rectificación tuvo mucho menos alcance que la acusación inicial.
El Consejo de Redacción de EFE reprochó estas fallas de la IA, señalando que errores algorítmicos pueden afectar la credibilidad del periodismo profesional. Grok también ha sido cuestionado anteriormente por difundir contenidos inapropiados y desinformación, lo que genera un debate sobre la confianza que depositan los usuarios en estas tecnologías.
Este incidente subraya la importancia de corroborar la información y mantener un análisis crítico, incluso cuando la fuente es una inteligencia artificial.



















