11 marzo 2026

Cuando las máquinas deciden quién vive: la IA y los límites que nadie quiere poner

Hay una pregunta que los gobiernos evitan formular en voz alta: ¿Quién es responsable cuando una máquina toma la decisión de matar? No es una pregunta de ciencia ficción. Es una pregunta que ya debería tener respuesta, porque mientras los expertos debaten en Ginebra y los ejércitos perfeccionan sus algoritmos, hay misiles guiados por inteligencia artificial sobrevolando Oriente Medio, drones que priorizan objetivos en Gaza y Ucrania sin que nadie haya firmado un solo tratado que regule cómo se hace y quién responde cuando algo sale mal. 

Esta entrada no pretende ser neutral. Pretende ser honesta: el uso de la IA como instrumento de guerra, sin supervisión humana real y sin marcos jurídicos vinculantes, es una de las amenazas más serias a los derechos humanos que enfrentamos hoy, y seguir tratándola como un debate técnico o geopolítico abstracto es una forma de complicidad por omisión.


Un debate que ya llega tarde


El reciente enfrentamiento entre Estados Unidos, Israel e Irán no ha traído solo destrucción y tensión diplomática. Ha traído también algo que muchos preferirían no ver: la confirmación de que la inteligencia artificial ya participa activamente en decisiones de vida o muerte en los campos de batalla actuales. Los misiles se guían con algoritmos. Los drones seleccionan rutas y objetivos mediante modelos de aprendizaje automático. Y todo esto ocurre mientras en Ginebra, investigadores y juristas intentan acordar algún tipo de marco internacional que ponga límites a este uso. El problema es que quienes más deberían estar sentados en esa mesa, los países que más invierten en IA militar, son los que menos interés tienen en regularse a sí mismos.

Craig Jones, geógrafo político de la Universidad de Newcastle, lo resume de forma directa: Estados Unidos, Israel y China se oponen activamente a una mayor regulación. No es que no hayan llegado a un acuerdo todavía; es que no quieren llegar a él. Y mientras eso no cambie, cualquier reunión en Ginebra es, en el mejor de los casos, un ejercicio de buenas intenciones con escaso efecto práctico.

La promesa que no se cumple


Uno de los argumentos más repetidos para justificar el uso militar de la IA es que su precisión puede reducir las bajas civiles. La idea tiene cierta lógica en teoría: un sistema capaz de analizar miles de variables en milisegundos debería ser más preciso que un soldado exhausto o un piloto bajo presión. Pero los conflictos recientes han desmontado esa narrativa con datos muy crudos.

En Ucrania y en Gaza, la IA se ha usado para priorizar objetivos y para controlar drones, y el número de víctimas civiles ha sido devastador. Jones no deja margen para interpretaciones optimistas: no existe ninguna prueba de que la IA reduzca el número de civiles muertos o mejore la selección de objetivos. Y añade algo que debería poner en pausa a cualquier defensor de esta tecnología en el campo de batalla: es posible que ocurra exactamente lo contrario. Que la velocidad y la escala que permite la IA en la toma de decisiones militares estén, de hecho, aumentando el daño.

Aquí conviene recordar el antecedente del Proyecto Maven de Google. En 2017, el ejército estadounidense contrató a Google para desarrollar un sistema de IA capaz de analizar imágenes de drones y mejorar la selección de objetivos. La reacción interna fue tan intensa que más de 3.000 empleados firmaron una carta pidiendo que la empresa abandonara el contrato, lo que finalmente hizo en 2018. Pero el proyecto no desapareció; simplemente buscó otros socios tecnológicos. Este episodio ilustra algo importante: la presión social y ética puede frenar ciertos contratos, pero no detiene el programa. Si no hay regulación externa, los ejércitos siempre encontrarán otra puerta.


El problema de definir lo indefinible


Uno de los obstáculos más concretos para avanzar en la regulación es técnico antes de ser político: no existe una definición acordada de qué es exactamente un sistema de armas autónomo. Y esto no es un detalle menor. Si no podemos definir con precisión qué queremos prohibir, cualquier tratado tiene agujeros por los que caben ejércitos enteros.

La dificultad es real: la IA ya está integrada en casi todos los sistemas informáticos modernos, incluyendo los militares. Un misil con sistema de guiado adaptativo, ¿es un arma autónoma? ¿Y un dron que puede modificar su ruta en tiempo real según el entorno? Herbert Lin, especialista en ciberseguridad de Stanford, es pesimista pero honesto: el mundo no está, ni de lejos, cerca de alcanzar un acuerdo sobre el uso legal de la IA en la guerra. Y mientras ese acuerdo no exista, cada país interpretará los límites a su conveniencia.

Cuando los propios trabajadores dicen basta


En medio de este panorama, hay una señal que no debería pasarse por alto. Empleados de Google y OpenAI han circulado una petición interna pidiendo a sus empresas que prohíban el uso de sus modelos en dos escenarios concretos: la vigilancia masiva de ciudadanos y la toma de decisiones letales de forma autónoma. Que los propios trabajadores de las empresas que desarrollan estas tecnologías sientan la necesidad de frenar ciertos usos dice mucho sobre la dirección que están tomando las cosas.

El caso de Anthropic es especialmente revelador. La empresa, que desde 2024 colabora con el sistema Maven del ejército estadounidense, se negó a aceptar una cláusula del Departamento de Defensa que permitía usar sus modelos para cualquier fin legal sin restricciones adicionales. Anthropic puso dos líneas rojas: sus modelos no pueden usarse para vigilancia masiva ni para guiar armas totalmente autónomas. La respuesta del gobierno de Trump, el 27 de febrero, fue ordenar al ejército que dejara de trabajar con la tecnología de Anthropic. Es decir: una empresa de inteligencia artificial fue sancionada por intentar poner límites éticos a sus propios productos. Si eso no describe el estado actual del debate, nada lo hará.

El riesgo de la escalada sin control


Toni Erskine, politólogo de la Universidad Nacional Australiana, lidera un proyecto que trata de anticipar cómo evolucionará el uso de la IA en conflictos futuros. Su conclusión es clara y preocupante: cuando una máquina reemplaza el juicio humano en situaciones de combate, el riesgo de que un conflicto se salga de control de forma accidental aumenta de manera significativa.

Pensemos en lo que eso significa en la práctica. Un sistema autónomo que detecta una amenaza y responde en milisegundos no tiene tiempo para considerar el contexto diplomático, para verificar si la señal es un error, ni para valorar si una respuesta armada en ese momento puede desencadenar una escalada que nadie quería. La velocidad que hace atractiva a la IA en el campo de batalla es exactamente lo que la hace peligrosa cuando se trata de decisiones irreversibles. Erskine lo expresa con precisión: los sistemas de armas que actúan sin supervisión humana son éticamente insostenibles y deberían prohibirse a nivel internacional.

Conclusión: una posición que no admite neutralidad

Frente a todo lo expuesto, no creo que sea posible mantener una postura neutral. La inteligencia artificial es una herramienta extraordinaria con un potencial enorme para mejorar la vida de las personas: en medicina, en educación, en ciencia, en accesibilidad. Pero ese potencial no borra la responsabilidad de quienes la desarrollan y quienes la despliegan de establecer límites claros sobre qué usos son aceptables y cuáles no lo son bajo ninguna circunstancia.


El uso de la IA en la guerra, especialmente en sistemas capaces de seleccionar y atacar objetivos sin supervisión humana directa, es uno de esos usos inaceptables. No porque la tecnología sea inherentemente mala, sino porque elimina la responsabilidad individual del acto de matar, acelera los conflictos más allá de la capacidad humana de controlarlos y, como han demostrado los conflictos recientes, no reduce las víctimas civiles, sino que puede aumentarlas.

Mi posición es activa y deliberada. Apoyo sin reservas la regulación internacional vinculante sobre el uso de IA en sistemas de armas. Apoyo las iniciativas de empleados de empresas tecnológicas que se niegan a participar en desarrollos que puedan costar vidas inocentes. Apoyo a empresas como Anthropic que, aunque mejorable, trazan líneas rojas incluso cuando eso tiene un coste económico y político. Y creo que la sociedad civil, los medios de comunicación, los académicos y los ciudadanos en general tienen no solo el derecho sino la obligación de exigir que estas decisiones no se tomen a puerta cerrada entre gobiernos y contratistas de defensa.


La pregunta de quién es responsable cuando una máquina mata no es una pregunta del futuro. Es una pregunta de hoy. Y si no empezamos a responderla con seriedad, las consecuencias no serán abstractas: serán vidas, nombres, familias. Ignorar eso no es neutralidad. Es una elección.