Editorial-El Español

Esta semana ha arrojado una luz preocupante sobre la intersección entre la inteligencia artificial y las aplicaciones militares.

Mientras Anthropic mantiene una postura firme contra el uso de su modelo Claude en vigilancia masiva o armas autónomas, empresas como OpenAI, Google (con Gemini) y xAI (con Grok) han adoptado el estándar propuesto por el Departamento de Defensa de Estados Unidos.

Este marco permite el empleo de la IA en «todos los usos legales», sin restricciones adicionales específicas.

Este desarrollo refleja una evolución en las relaciones entre las grandes tecnológicas y el sector de defensa: la disposición a permitir «cualquier uso lícito» abre las puertas a la integración de modelos avanzados en sistemas militares, incluso aquellos clasificados.

OpenAI inició esta tendencia en enero de 2024, al eliminar de sus políticas la prohibición explícita de aplicaciones «militares y de guerra», reemplazándola por una mención genérica a no «desarrollar ni usar armas».

Google, en 2025, abandonó su compromiso de evitar el uso de IA en armas o vigilancia intrusiva, optando por un enfoque más flexible: implementar la tecnología cuando «los beneficios superen los riesgos previsibles».

Paralelamente, xAI ha formalizado un acuerdo para incorporar Grok en entornos clasificados, adhiriéndose sin reservas al criterio de «todos los usos legales» que Anthropic ha rechazado.

El panorama es claro. El sector de defensa estadounidense busca reemplazar progresivamente a Claude (hasta ahora un pilar en sus sistemas de inteligencia sensibles) por alternativas más complacientes, ejerciendo presión sobre Anthropic mediante la posible calificación de la empresa como «riesgo para la cadena de suministro» si persiste en sus límites respecto a la vigilancia de ciudadanos estadounidenses y las armas plenamente autónomas.

Al mismo tiempo, en el interior de Google y OpenAI, surgen disidencias: una carta firmada por empleados de Google demanda prohibiciones claras para que Gemini no se utilice en vigilancia doméstica o en operaciones armadas sin intervención humana.

Este conflicto no se limita a las tensiones entre gobiernos y corporaciones. También se manifiesta en las dinámicas internas de las propias empresas tecnológicas.

En este contexto, es fácil recurrir a analogías con la ciencia ficción, evocando escenarios como un Skynet militarizado.

Sin embargo, tales comparaciones exageradas distraen de los riesgos reales, que no requieren de narrativas apocalípticas para ser tomados en serio.

En la actualidad, las preocupaciones no giran en torno a una superinteligencia autónoma y rebelde, sino a amenazas más concretas e inmediatas: la opacidad de modelos estadísticos, la aceleración de los ciclos de decisión y una competencia geopolítica que favorece el despliegue prematuro de tecnologías inmaduras.

Ilustra este punto la experiencia en Ucrania, donde drones con niveles crecientes de autonomía (desde guiado terminal hasta operaciones en enjambre) pueden proseguir misiones incluso ante la pérdida de conexión con operadores humanos, aunque esta autonomía suele ser gradual y no implica selección de objetivos sin supervisión inicial humana.

Estos sistemas no poseen «voluntad» propia, pero sí la capacidad de reconocer patrones, priorizar objetivos y ejecutar acciones en entornos sobrecargados de datos y contramedidas electrónicas.

Los riesgos van más allá de errores en la selección de blancos. Al integrarse en estructuras de mando algorítmicas, estos sistemas podrían inducir a los responsables humanos a delegar más autoridad de lo que se reconoce públicamente, erosionando la determinación de responsabilidades políticas y legales.

En primer lugar, existe un peligro técnico. La IA militar se basa en datos incompletos, sesgados o manipulables, lo que puede llevar a fallos impredecibles en escenarios reales de combate, exacerbados por intentos adversarios de contaminar información o inducir comportamientos erráticos.

En segundo lugar, hay implicaciones estratégicas. La incorporación de IA en sistemas de alerta temprana y respuesta podría reducir drásticamente los plazos para la toma de decisiones, haciendo inviable una deliberación humana en momentos críticos, particularmente en contextos cercanos al umbral nuclear.

Finalmente, surgen desafíos éticos y jurídicos. Cuanto mayor es la automatización en la cadena, más compleja resulta la atribución de responsabilidad por incidentes letales.

No obstante, sería un error condenar de plano la IA en el ámbito militar. La misma tecnología que amplifica riesgos de escalada o error puede, si se gestiona adecuadamente, minimizar daños colaterales, potenciar la precisión en la identificación de objetivos y fortalecer defensas cibernéticas esenciales.

Por ejemplo, OpenAI colabora con DARPA en herramientas de ciberseguridad destinadas a proteger infraestructuras críticas, demostrando el valor de aplicaciones defensivas de la IA bajo protocolos de supervisión rigurosos.

Rechazar estas oportunidades por principio sería tan reduccionista como aceptar sin cuestionamientos el principio de «todo uso legal».

El debate central no reside en si la IA debe integrarse en la inteligencia militar (ya lo está, y su presencia aumentará), sino en qué aplicaciones deben prohibirse y bajo qué salvaguardas se permiten las demás.

Aquí radica el problema con el estándar impuesto por el Pentágono. «Todos los usos legales» representa un umbral mínimo en un campo donde el Derecho internacional avanza con lentitud frente a la innovación tecnológica.

Europa, incluyendo España, no puede permanecer al margen de esta discusión. Aunque la UE ha progresado con su Ley de IA, que veta usos de alto riesgo en tiempos de paz, el ámbito puramente militar queda excluido intencionalmente, aunque sí regula tecnologías de uso dual (civil-militar).

Si las principales plataformas adoptan sin fisuras el modelo estadounidense, y si la regulación global de armas autónomas sigue paralizada, se reducirá drásticamente el margen para establecer límites basados en principios humanistas.

La aproximación equilibrada no implica cerrar las puertas a la IA en defensa, sino imponer tres requisitos fundamentales.

1. Prohibir sistemas que seleccionen y ataquen individuos sin un control humano significativo.

2. Excluir configuraciones cuya impredecibilidad viole el derecho internacional humanitario.

3. Someter las aplicaciones restantes a auditorías independientes, transparencia y mecanismos genuinos de rendición de cuentas política.

El desafío es evidente. O los Estados y las empresas acuerdan ahora límites verificables y un control humano efectivo sobre la fuerza letal, o serán los contratos y las dinámicas de futuros conflictos los que, con retraso, definan las fronteras que hoy se evitan dibujar.