Una escuela primaria iraní apareció en la lista de objetivos de Trump y terminó destruida. Al menos 175 personas murieron en el ataque, muchas de ellas niños. Lo que debía ser un blanco militar resultó ser un edificio escolar. La lista de objetivos de Trump incluía ese punto geográfico como sitio de interés estratégico, posiblemente confundido con una instalación de uso dual o un emplazamiento militar encubierto. Y ahora, la lista de objetivos de Trump enfrenta el escrutinio más severo desde el inicio de la ofensiva: ¿cómo un sistema de inteligencia artificial tan avanzado identificó una escuela primaria como objetivo legítimo de bombardeo?
El reportaje que sustenta este análisis fue publicado por The Washington Post y firmado por un equipo de cinco periodistas especializados: Tara Copp, corresponsal de defensa nacional; Souad Mekhennet, reportera de seguridad internacional con amplia experiencia en Oriente Medio; Meg Kelly, especialista en verificación de hechos y análisis de conflictos; Alex Horton, periodista de asuntos militares; y Susannah George, corresponsal de guerra con cobertura directa desde la región. El título original de la pieza es Una escuela iraní estaba en la lista de objetivos de Estados Unidos y pudo haber sido confundida con un sitio militar.
La mañana en que los niños estaban en clase y un misil estadounidense destruyó su escuela
El ataque ocurrió en horas de la mañana. Los niños estaban en clase. Las primeras imágenes mostraron el edificio reducido a escombros. Los servicios de emergencia iraníes confirmaron al menos 175 muertos, entre ellos un número aún no precisado de menores. Las autoridades de Teherán señalaron que el misil provenía de una aeronave estadounidense. Washington no negó el ataque. Tampoco lo confirmó de forma inmediata. El silencio inicial de la Casa Blanca generó una oleada de reacciones internacionales que el gobierno de Trump no pudo contener.

El algoritmo que confundió una escuela con un depósito militar: cómo la sobreconfianza en los datos se vuelve letal
La pregunta central que plantea la investigación es técnica y ética al mismo tiempo. Los sistemas de inteligencia artificial que guían la selección de objetivos procesan enormes volúmenes de datos: imágenes satelitales, interceptaciones de comunicaciones, patrones de movimiento y registros históricos de uso de inmuebles. La lista de objetivos de Trump se construye, en parte, sobre las recomendaciones de esos algoritmos. Y los algoritmos, según los expertos consultados, pueden cometer errores que ningún analista humano habría cometido con el mismo nivel de información disponible.
Paul Scharre, director de estudios del Centro para una Nueva Seguridad Americana y autor de Army of None: Autonomous Weapons and the Future of War, advirtió que los sistemas de IA aplicados a la selección de objetivos presentan un riesgo específico: la sobreconfianza en los datos. Un algoritmo entrenado para identificar patrones militares puede interpretar la actividad regular de una escuela —movimiento masivo en horarios fijos, concentración en un punto geográfico, comunicaciones internas frecuentes— como indicadores de actividad militar encubierta. El resultado puede ser letal.
Lee también: Grietas entre Trump y Vance: cómo la guerra en Irán fracturó al equipo republicano desde adentro
Convenios de Ginebra versus inteligencia artificial: el vacío legal que ningún gobierno quiere cerrar
El edificio atacado tenía, según fuentes iraníes citadas por el Post, características arquitectónicas similares a las de instalaciones de almacenamiento de las fuerzas de seguridad. Esa similitud visual pudo haber sido el factor determinante en la identificación errónea. Los sistemas de reconocimiento de imágenes clasifican objetivos a partir de patrones visuales. Cuando esos patrones se repiten en contextos distintos —una escuela que se parece a un depósito militar—, el error de clasificación puede tener consecuencias irreversibles. La lista de objetivos de Trump habría incorporado ese sitio sin una verificación humana suficiente antes del ataque.
El derecho internacional humanitario establece con claridad el principio de distinción: los ataques deben dirigirse exclusivamente contra objetivos militares. El Protocolo Adicional I de los Convenios de Ginebra prohíbe expresamente los ataques indiscriminados. Marco Sassòli, profesor de derecho internacional en la Universidad de Ginebra, señaló que el uso de sistemas automatizados para la selección de objetivos no exime a los estados de su responsabilidad legal por los daños civiles causados. La responsabilidad, dijo, sigue siendo humana.
El veto que bloqueó la condena: cómo Estados Unidos frenó en el Consejo de Seguridad la investigación internacional
La reacción internacional fue inmediata. La Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos exigió una investigación independiente sobre el ataque. Rusia y China presentaron una resolución de condena en el Consejo de Seguridad. Estados Unidos la bloqueó con su veto. Organizaciones como Human Rights Watch y Amnistía Internacional calificaron el ataque como una posible violación grave del derecho internacional humanitario y pidieron que se investiguen las responsabilidades en la cadena de mando que autorizó el bombardeo.
Lee también: Los planes de EE.UU. e Israel contra Irán han fracasado: ahora están probando otros planes sin resultado
La pregunta que Tucker Carlson hizo en voz alta y que la Casa Blanca todavía no ha respondido
Dentro de Estados Unidos, el impacto político fue significativo. El periodista Tucker Carlson, aliado del ala no intervencionista republicana, fue uno de los primeros en exigir una investigación pública. Afirmó que si el ataque no fue un error, «no vale la pena seguir luchando por Estados Unidos». Su declaración resonó en sectores de la base MAGA que ya expresaban dudas sobre los objetivos reales de la campaña. El incidente amplificó las tensiones internas dentro de la Administración Trump que el conflicto iraní ya había comenzado a revelar.

La tecnología eligió el blanco, los humanos tomaron la decisión: quién responde por los 175 muertos de esa escuela
Lo que ocurrió en esa escuela primaria no es solo una tragedia de guerra. Es la consecuencia más concreta de delegar decisiones letales a sistemas que procesan datos sin comprender el significado humano de lo que destruyen. La inteligencia artificial no siente el peso de 175 muertos. No registra el llanto de los sobrevivientes. No enfrenta el escrutinio de una cámara ni el juicio de la historia. Eso lo hacen los seres humanos que construyeron esos sistemas, que aprobaron esa lista y que lanzaron ese misil. La tecnología eligió el blanco. Los humanos tomaron la decisión. Y los niños pagaron el precio.

