El comentario aparece incesantemente de primer lugar en cada noticia sobre la muerte de decenas de niñas en una escuela femenina en Minab, Irán, que me aparece en Facebook.
Lo dicen con total seguridad, sin ningún enlace, prueba o evidencia, sino con la convicción de estar defendiendo lo bueno: acabar con el Islam malvado, opresor y tiránico contra las mujeres y no dejarse engañar por las grandes corporaciones mediáticas.
Después de las verificaciones publicadas por Ecuador Chequea, GeoConfirmed, Fact Chequeado, EFE Verifica y Verificat, la duda persiste. O mejor dicho: la mentira sigue siendo viral.
Alguien me comentó que cómo sabríamos qué era verdad o qué era mentira si todos usaban la Inteligencia Artificial para crear vídeos e imágenes muy creíbles.
Mi respuesta fue de periodismo básico: comprobando que se trate de un hecho. Juzgar si el bombardeo fue o no real por la foto de un artículo, es como tratar de entender la realidad de un país por el vídeo de 1:30 de su presidente en TikTok ;)
La fuente de la mentira fue Grok, el chatbot de xIA, una empresa ligada a X (antiguo Twitter) después de la compra por parte de Elon Musk. Dijo que fue en Afganistán en 2021. El post, que sigue en línea, tiene para el 5 de marzo más de 148 mil visualizaciones.
Luego ese mismo corrigió (135 visualizaciones, y eso que en la respuesta era a EFE Noticias y Carlos Montero). No se sintió mal. No reflexionó. No debe responder ética ni moralmente. Ni siquiera sabemos si aprendió.
Todas esas son circunstancias humanas, no de máquina. Grok ni siquiera es una máquina, es una marca, no sabemos cómo hace lo que hace, más allá de las aproximaciones técnicas y teóricas sobre ser un "loro estocástico" y el aprendizaje profundo para la predicción de texto.
Así que no bastan las decenas de explicaciones sobre que los chatbots no piensan, no analiza, no entienden lo que dicen, y ahora lo decimos también los periodistas: no contrasta, no va al terreno y no consulta fuentes. No puede verificar ni informar correctamente. No es la primera vez. Con los anteriores ataques de EEUU sobre Irán, sobre la guerra de Ucrania y sobre el conflicto en Gaza también volvió a pasar: se equivoca pero lo dice con una seguridad pasmosa: el Dunning-Kruger cibernético.
Preguntarle si algo es verdad sólo tendrá como respuesta, elegante y confiada: repetir los contenidos ya existentes. Falsos o no.
Hace un par de semanas un periodista de la BBC mostró lo fácil que es engañar a un chatbot, escribiendo un artículo en su blog personal sobre su capacidad internacionalmente reconocida de comer perros calientes, que todas las herramientas de IA citaron como verídica, a pesar de fallar en lo obvio del periodismo: usando una única fuente, sin historial informativo y sin contraste, sobre un hecho ficticio. Antes Bellingcat mostró cómo es malísimo para reconocer en qué lugar del mundo se tomó una foto. E investigaciones previas han revelado cómo Rusia publica cientos de artículos diarios en sitios webs recién creados para que sean "tragados" por los chatbots.
Y acá la diferencia entre lo automatizado y lo humano. Los periodistas y verificadores no sólo publicaron el bombardeo, sino el funeral masivo (que también fue negado, citando que Grok mintió, pero no se viralizó la corrección). Tuvimos que explicar algo que un ecosistema digital que dice despreciar tanto el Islam debería conocer: la semana no empieza el lunes sino e sábado, y el horario en el que leíste la noticia, no es la misma en que se lanzó el ataque, porque existen husos horarios.
Hay otro ángulo más. Despreciar el sistema patriarcal y retrógrado del ayatolá Jamenei, e incluso apoyar la operación militar de EEUU que llevó a su muerte, no hace que no sea cierto también que EEUU pueda bombardear una escuela de niñas (incluso sin intención como ha asomado Rubio). Pero lo vimos en Gaza, decenas de veces. La guerra no es humanitaria, ni inocente.
Que el sistema chiíta de los fundamentalistas musulmanes atente contra las niñas y las mujeres no significa que no sea posible que una bomba de EEUU caiga sobre una escuela femenina en Irán.
Volvamos a los hechos. Le dije a quién decía que no podemos saber la verdad que mediante geolocalización fotos y noticias viejas se pudo reconstruir las circunstancias del hecho: es Ramadán, hay clases los sábados y era de día en Irán.
Además, la escuela queda al lado de una clínica de la Guardia Revolucionaria y hasta 2016 sólo los separaba una pared. Años atrás, la escuela ni siquiera lo era, sino una sección de una instalación militar más grande.
Podemos hacer corresponsables a los ayatolás, podemos decir -como he leído de quienes parecen no ser padres de esas niñas- que está bien que mueran 1.000 si se salvarán millones -lo que tiene matices- pero hay que partir de algo primero: entonces sí cayó una bomba sobre una escuela femenina en Irán. Y no, tampoco es verdad que Irán confesó o admitió que fueron ellos (esta vez no fue Grok sino cuentas opositoras iraníes en Telegram).
Grok luego corrigió, pero como el chatbot admitió, la respuesta y la corrección no se viralizaron. Ya la "fuente" la habían tomado influencers de derecha y las audiencias lo tomaron como un hecho, porque coincide con mis ideas sobre los medios y sobre el Islam. Pero así no funciona la realidad.
Lo que tenemos ahora es posverdad: perdimos el consenso de la realidad. Los tiroteos en EEUU son montajes, según los alt-rigth. Hasta que involucra una mujer trans, entonces sí son reales. O si matan a alguien de la alt-right, entonces allí no hay actores. Cuando asesinaron a decenas de niños negros, todo un show.
Gran artículo: incluye los enlaces a las publicaciones de Grok y las estadísticas.