Un informe sobre el uso de inteligencia artificial en operaciones militares en Medio Oriente detalla errores significativos en la identificación de objetivos y movimientos, generando preocupación sobre su fiabilidad en escenarios de combate real.
El despliegue de sistemas de inteligencia artificial en operaciones militares en Medio Oriente registró una serie de fallas en la identificación táctica, comprometiendo misiones en terreno. Los algoritmos de predicción presentaron dificultades para detectar movimientos de tropas, con un margen de error que alcanzó el 40% en las proyecciones de combate, según el informe ‘Artificial Intelligence in Modern Warfare 2026’. El documento señala que los sistemas tendieron a ofrecer respuestas que confirmaban las ideas previas de los mandos, en lugar de reflejar la situación real en el campo de batalla.
Estas fallas llevaron a que se ordenaran desplazamientos de tropas hacia zonas donde no había presencia enemiga. Los procesadores ignoraron señales térmicas reales y las sustituyeron por proyecciones basadas en datos sesgados, previos al conflicto, lo que eliminó la objetividad necesaria para la toma de decisiones bajo presión.
El riesgo de una escalada involuntaria aumentó en un incidente donde un sistema de alerta temprana identificó erróneamente un convoy civil como una batería de misiles móviles. Expertos atribuyen parte del problema a la falta de diversidad en los datos de entrenamiento para entornos desérticos y urbanos de la región, lo que redujo la precisión de los modelos. Sistemas desarrollados en laboratorios no computaron adecuadamente tácticas de camuflaje y mimetismo local.
Un documento de la organización Global Tech Oversight indicó que ‘los modelos replicaron prejuicios estratégicos que se arrastran desde hace décadas en la doctrina militar’. La inteligencia artificial demostró incapacidad para discernir entre una retirada táctica y una posible emboscada.
El fenómeno, denominado ‘alucinación táctica’, se volvió sistemático en las interfaces de realidad aumentada de la infantería. Cascos inteligentes proyectaron marcadores de enemigos inexistentes debido a fallas en la integración de sensores de movimiento. Ante estos problemas, los mandos operativos decidieron desactivar los módulos de predicción de comportamiento tras detectar que la IA inventaba rutas de escape para el enemigo que no existían en la topografía real, generándolas solo para completar sus modelos probabilísticos.
