La inteligencia artificial de Elon Musk confunde un ataque en Beirut con las Fallas de València
En un contexto donde la desinformación prolifera en redes sociales y plataformas digitales, la confianza en las herramientas automatizadas de verificación de datos se ha convertido en un asunto delicado. Sin embargo, recientes fallos de la inteligencia artificial (IA) Grok, desarrollada por X (anteriormente Twitter) bajo el liderazgo de Elon Musk, han puesto en duda su fiabilidad para distinguir entre hechos verídicos y falsos.
Grok vuelve a cometer un error de verificación
La polémica surgió cuando Grok clasificó erróneamente un vídeo real de un ataque israelí en Beirut ocurrido en 2024, identificándolo como una celebración pirotécnica durante las Fallas de València, en España. A pesar de las preguntas de diversos usuarios que intentaron corregir la información, la IA persistió en su afirmación original, describiendo el material audiovisual como una “mascletà”, el tradicional espectáculo de fuegos artificiales que se realiza en la plaza del Ayuntamiento de València durante las festividades de marzo.
Según la respuesta de Grok, el vídeo no mostraba un bombardeo, sino un evento festivo español en 2026, con explosiones controladas, humo y fuego, características típicas de las Fallas. No obstante, tanto Newtral como EFE Verifica confirmaron que la grabación corresponde al impacto de un misil israelí en un edificio de Beirut, coincidiendo con imágenes distribuidas por la agencia AFP y reproducidas por varios medios internacionales.
Reacciones y cuestionamientos sobre la fiabilidad de la IA
El error de Grok no pasó desapercibido y generó una oleada de comentarios y críticas en redes sociales, donde numerosos usuarios ironizaron sobre la capacidad de la inteligencia artificial para ejercer labores de verificación periodística. La confusión ha reavivado el debate sobre los límites y riesgos de confiar la validación de noticias a sistemas automáticos, especialmente en un contexto global marcado por la propagación de bulos y la polarización.
- Grok ya había sido criticada previamente por rechazar como falsa una fotografía verídica de una escuela bombardeada en Irán, difundida por la Agencia EFE.
- La insistencia de la IA en su equivocación, incluso ante la presión de los usuarios, ha puesto en entredicho su capacidad de autocorrección.
- Las plataformas especializadas en verificación han recalcado la importancia de recurrir siempre a fuentes humanas y expertos para confirmar hechos delicados.
Implicaciones para el periodismo y la verificación digital
La reciente equivocación de Grok subraya los desafíos que enfrentan las tecnologías de inteligencia artificial a la hora de analizar imágenes y contextos complejos. Aunque estas herramientas pueden resultar útiles en tareas rápidas o en la generación de contenido lúdico, su aplicación en el ámbito informativo debe ser siempre complementaria y supervisada por profesionales del periodismo.
La recomendación general continúa siendo la de acudir a fuentes acreditadas y medios de comunicación responsables, especialmente cuando se trata de hechos sensibles relacionados con conflictos internacionales o sucesos de impacto social.
Conclusión
El caso de Grok evidencia que, a pesar de los avances tecnológicos, la verificación de la información sigue requiriendo de criterio humano y rigor profesional. Las inteligencias artificiales, aunque útiles en muchos aspectos, todavía distan de poder sustituir la labor de los periodistas y de los equipos de verificación especializados.
Nota:
Los contenidos publicados en este sitio han sido generados y/o reelaborados mediante el uso de herramientas de inteligencia artificial.
elpuebloinforma.com declina toda responsabilidad, directa o indirecta, por eventuales errores, inexactitudes, omisiones u otras irregularidades presentes en los textos.
El usuario reconoce que dichos contenidos tienen exclusivamente fines informativos y no pueden sustituir en ningún caso fuentes oficiales ni asesoramientos profesionales.
