En su edición del 4 de marzo de 2026, MIT Technology Review publicó un análisis sin precedentes sobre cómo los sistemas de inteligencia artificial están siendo evaluados activamente por gobiernos y fuerzas armadas para planificar operaciones militares ofensivas. El enfoque geopolítico del reporte gira en torno a potenciales acciones contra objetivos iraníes, pero sus conclusiones trascienden cualquier escenario específico: la arquitectura de decisión en los sistemas autónomos modernos ha alcanzado un nivel de sofisticación que plantea preguntas filosóficas, legales y técnicas que la comunidad internacional no está preparada para responder.
Lo que el MIT describe no es ciencia ficción. Es la convergencia de tres tendencias simultáneas que en iamanos.com hemos monitoreado desde 2024: la maduración de los modelos de lenguaje para procesar inteligencia de múltiples fuentes, la integración de visión por computadora en sistemas de reconocimiento de objetivos, y la presión geopolítica por ciclos de decisión cada vez más cortos. El resultado es un ecosistema donde la velocidad de la máquina supera la capacidad de supervisión humana.
Del Apoyo a la Decisión a la Decisión Autónoma: La Línea Invisible
Los defensores del uso de IA en contextos militares arguyen que los sistemas actuales actúan únicamente como “apoyo a la decisión”: procesan crisis, generan opciones y presentan recomendaciones al operador humano. Esta distinción, aparentemente clara sobre el papel, se disuelve en la práctica operativa. Cuando un sistema de IA analiza en milisegundos miles de variables —posición de objetivos, rutas de escape, probabilidades de daño colateral, ventanas de oportunidad— y entrega una recomendación con un 94% de confianza, el margen real de deliberación humana se comprime hasta volverse casi decorativo.
**Se estima que para 2027, más del 60% de las decisiones tácticas en conflictos de alta intensidad estarán asistidas por sistemas de inteligencia artificial**, según proyecciones del sector defensa citadas por analistas del MIT. Este dato no es alarmista: es la consecuencia lógica de una carrera tecnológica donde ningún actor quiere operar con desventaja de velocidad frente a su adversario.
El Caso Iraní: Por Qué Este Escenario Importa Más Allá de la Geopolítica
El MIT no eligió el escenario iraní de forma arbitraria. Irán representa uno de los entornos operativos más complejos para cualquier sistema de IA militar: infraestructura de comunicaciones densa y redundante, alta mezcla de objetivos militares y civiles, actores no estatales entrelazados con estructuras gubernamentales, y una capacidad de respuesta asimétrica que desafía los modelos de predicción convencionales. Planificar operaciones en este entorno con apoyo de IA no es simplemente un problema de potencia de cómputo: es un problema de representación del conocimiento, incertidumbre y ética aplicada.
Cuando un sistema de inteligencia artificial falla en distinguir un sitio de enriquecimiento nuclear de una instalación médica adyacente —no por incapacidad, sino por crisis de entrenamiento incompletos o deliberadamente manipulados—, las consecuencias no son un error de software. Son muertes. Y la pregunta de quién responde legalmente ante ese resultado no tiene respuesta en ningún marco jurídico internacional vigente en 2026.
