Foto:Johan Sebastián Gutiérrez Mosquera. columnista invitado cambioin.com
Por: Editor en Jefe - Publicado en marzo 19, 2026
Por: Johan Sebastián Gutiérrez Mosquera. Columnista invitado cambioin.com
Advertencia: los comentarios escritos a continuación son responsabilidad única y exclusiva de su autor, y en nada compromete a este medio de comunicación digital.
“Podemos fabricar la bomba de hidrógeno; pero para imaginarnos las consecuencias de lo que hemos fabricado, no alcanzamos.”
Günther Anders, Die Antiquiertheit des Menschen, vol. I, p. 17 (C.H. Beck, Múnich, 1956)
En 48 segundos, el ejército chino generó diez mil escenarios de combate usando el modelo de IA DeepSeek; la misma tarea habría tomado 48 horas a los planificadores humanos. No hubo una sola baja en ese ejercicio, tampoco un solo escrúpulo. Esa asimetría, entre la velocidad de la máquina y la lentitud de la conciencia, es la cifra exacta del problema.
Es el ser humano quien rompe las leyes de la robótica, no la inteligencia artificial que se rebela contra sus creadores. Eso era ciencia ficción. Lo real, hasta hoy, es la ambición humana que convierte deliberadamente la tecnología en instrumento de destrucción masiva. Asimov imaginó máquinas que protegen la vida porque los humanos así se lo ordenan; pero nosotros, los humanos de esta era, construimos máquinas que matan con mayor precisión, menor costo y sin responsabilidad moral, jurídica o política.
I. La máquina que decide matar
La automatización de la violencia es una realidad operativa, gestionada por una industria militar tecnológica privada que encontró en la guerra su modelo de negocio más rentable y su catalizador más efectivo.
Palantir Technologies entregó en marzo de 2025 al Ejército estadounidense los primeros sistemas TITAN —Tactical Intelligence Targeting Access Node—, plataformas móviles que integran datos de sensores espaciales para asistir el ciclo de targeting en combate. Meses después, un contrato marco por hasta diez mil millones de dólares consolidó su posición como sistema nervioso digital de las fuerzas terrestres norteamericanas. El proyecto Maven usa aprendizaje automático para reducir en tiempo real el intervalo entre la detección de un objetivo y su eliminación. Anduril, Scale AI y los grandes proveedores de cómputo en la nube compiten por el mismo mercado.
Lo que estos sistemas producen en el campo de batalla ya tiene nombre y tiene víctimas documentadas. El sistema Lavender, desplegado por Israel en Gaza, marcó a 37.000 personas como objetivos militares y aprobaba blancos en apenas 20 segundos, frecuentemente sin revisión humana significativa. Se equivocaba en al menos el 10% de los casos. Los individuos eran atacados de noche, en sus casas, con sus familias presentes. Un ataque sobre una escuela de la ONU en Nuseirat el 7 de julio de 2024 mató a 23 personas e hirió a más de 80; el ejército israelí reconoció después que solo ocho de los muertos eran combatientes. El 1 de abril de 2024, drones israelíes atacaron tres veces en cinco minutos un convoy de World Central Kitchen que viajaba por una ruta preaprobada y coordinada con el propio ejército, matando a siete trabajadores humanitarios. La sospecha que motivó el ataque era falsa. Nadie fue condenado.
En Ucrania, empresas locales desarrollaron módulos de targeting con IA que cuestan 70 dólares y elevan la tasa de éxito de un dron de ataque del 20% al 80%. El sistema gestiona la fase final del ataque de forma autónoma, sin operador humano, porque el jamming electrónico ruso hace imposible el control remoto en ese intervalo. En la práctica, miles de impactos diarios ocurren sin supervisión humana en el momento del disparo. En mayo de 2025, autoridades ucranianas capturaron los restos de un dron iraní completamente autónomo, equipado con algoritmos de identificación de objetivos que no requerían intervención humana alguna, según reportes el primer sistema letal plenamente autónomo documentado en un conflicto activo.
El caso Anthropic frente al Pentágono ilumina la tensión que ningún foro mundial quiere nombrar públicamente. En marzo de 2026, el Departamento de Defensa designó a Anthropic como “riesgo para la cadena de suministro de seguridad nacional” tras negarse la empresa a eliminar las salvaguardas que impiden usar sus modelos en armamento autónomo sin supervisión humana significativa. La respuesta fue inmediata: exclusión administrativa, presión política, demanda judicial. El Pentágono sustituyó a Claude por los modelos de OpenAI y xAI en sus redes clasificadas en cuestión de días. La lógica es la del arsenal, si una pieza tiene restricciones éticas, se reemplaza por otra que no las tiene.
Esa lógica del reemplazo es la lógica de la carrera geopolítica por la inteligencia artificial general, que no reconoce árbitro ni límite. Estados Unidos lidera en inversión privada; China compensa con financiamiento estatal masivo y velocidad de integración militar. Rusia produce un millón y medio de drones FPV al año, integrados con sistemas de selección autónoma de objetivos. El periódico oficial del Ejército Popular de Liberación lo dijo sin eufemismos “el principio de vencer con tácticas será reemplazado por vencer con algoritmos”. Ese es el horizonte que estas potencias llaman progreso.
II. El vacío jurídico como arquitectura
El marco internacional para regular la violencia automatizada no existe. Lo que existe es su simulacro: cumbres, grupos de expertos, resoluciones no vinculantes, conferencias de revisión que se aplazan indefinidamente.
La Convención sobre Ciertas Armas Convencionales lleva más de una década discutiendo las armas autónomas letales sin alcanzar instrumento vinculante alguno. En noviembre de 2025, el Primer Comité de la Asamblea General de las Naciones Unidas aprobó con 156 votos a favor una resolución exigiendo un tratado legalmente obligatorio. Cinco países votaron en contra, entre ellos Estados Unidos y Rusia: ambas potencias tienen en desarrollo sistemas autónomos letales activos, presupuestos de defensa que no admiten restricciones externas y capacidad de veto suficiente para garantizar que ninguna norma vinculante los alcance. El Secretario General António Guterres fijó 2026 como fecha límite para prohibir los sistemas letales que operan sin supervisión humana. La fecha llegó. El instrumento no.
El argumento público de quienes bloquean la regulación merece atención porque no niegan la necesidad de control humano, al contrario, lo redefinen. Lo llaman “control humano significativo”, la fórmula que Estados Unidos defiende en los foros multilaterales. Bajo esa definición, un operador que dispone de cuatro segundos para confirmar o rechazar la recomendación de un sistema autónomo ejerce control humano significativo. La máquina decide; el humano ratifica. La responsabilidad jurídica queda suspendida en ese intervalo de cuatro segundos que nadie puede auditar, documentar ni juzgar. Es una arquitectura diseñada no para garantizar la supervisión humana, sino para simularla y legitimar la automatización bélica.
Europa, que se presenta como modelo global de regulación responsable de la IA, encarna la contradicción más flagrante. El AI Act —vigente desde 2024— establece una excepción explícita y total para las aplicaciones militares y de defensa. En otras palabras: la ley más ambiciosa de regulación de IA en el mundo no aplica precisamente donde la IA mata. El Parlamento Europeo ha aprobado resoluciones instando a que toda decisión letal exija control humano significativo, pero las resoluciones no son vinculantes. Los contratos de defensa, sí.
Este vacío no es resultado de la inacción, sino de una decisión deliberada. Las cumbres internacionales —incluida la celebrada en A Coruña en febrero de 2026 con más de mil expertos de medio centenar de países— producen recomendaciones y documentos guía sin ninguna fuerza jurídica. El tiempo que se consume deliberando es el tiempo que las potencias y las compañías tecnológicas usan para desplegar sus sistemas autónomos. Cuando el derecho llegue a fiscalizar, los sistemas ya estarán en el campo de batalla.
III. La decadencia como elección civilizatoria
Hay una pregunta que debemos hacernos ante las inminentes consecuencias de nuestras acciones: ¿qué dice de nosotros, como civilización, la decisión de automatizar la muerte?
Colombia ofrece una respuesta incómoda. En octubre de 2025, el Ejército presentó en Tolemaida el primer Batallón de Aeronaves No Tripuladas de América Latina, drones con inteligencia artificial capaces de identificar rostros y seguir vehículos, integrados con sistemas de guerra electrónica. En el mismo mes, el presidente Gustavo Petro reconocía públicamente que “la ventaja aérea la tiene el narcotráfico”, luego de que grupos armados ilegales mataran con drones cargados de explosivos a 58 soldados y policías e hirieran a 300 más a lo largo de 2025. Los drones que usan las disidencias cuestan 600 dólares. Se compran en línea. Se modifican en el Catatumbo. No necesitan presupuesto del Pentágono ni contratos con Palantir, pero hacen un daño incalculable, fortalecen la delincuencia y actúan como arma en contra de la propia sociedad.
Esto es lo que la automatización de la violencia produce cuando desciende del nivel de las superpotencias al de los conflictos periféricos: la tecnología desarrollada para las guerras de las grandes potencias termina disponible para cualquier actor con dinero de narcotráfico y acceso a Amazon. El dron ético de hoy es el dron narco de mañana. América Latina no participa en la carrera por la superinteligencia militar. Es el territorio donde esa carrera se prueba, se degrada y se vuelve barata.
La automatización de la violencia no es un efecto secundario del progreso: es una elección política sostenida, financiada con fondos públicos, defendida en tribunales, exportada como modelo de modernización. Es la decisión de invertir más en reducir el tiempo entre la detección de un objetivo y su eliminación que en garantizar que ningún sistema mate por error a un civil. Es la decisión de construir drones que seleccionan objetivos a una velocidad que ningún humano puede supervisar, y llamar a eso “asistencia a la decisión humana”. Es la decisión de permitir que corporaciones privadas —sin mandato democrático, sin rendición de cuentas internacional— determinen qué sistemas letales tendrán salvaguardas y cuáles no, en función de qué contratos resultan más rentables.
La modernidad prometió emancipar al individuo a través de la razón. Lo que produjo, simultáneamente, fue el mecanismo más eficiente de destrucción masiva jamás concebido. La IA no rompe ese patrón. Lo acelera. Y lo hace con un argumento que debería inquietarnos más que cualquier distopía: lo hace desde la eficiencia. Matar con menor costo, menor riesgo para el propio combatiente, menor escándalo político. La muerte convertida en métrica. La guerra reducida a una función de optimización que ningún humano firma pero todos habilitan.
Lo que está en juego en la carrera por la superinteligencia militar no es solo quién gana la próxima guerra. Es qué tipo de humanidad emerge de ese proceso: una humanidad que delegó las decisiones de vida o muerte a algoritmos de maximización, que convirtió la ética en obstáculo contractual, que llamó “control humano significativo” a un operador que confirma en segundos lo que la máquina ya decidió.
Asimov no imaginó máquinas rebeldes. Imaginó máquinas que protegen la vida porque los humanos les ordenaron hacerlo. Lo que no imaginó es que los humanos cambiarían la orden.
Notas
1. Reuters, “Pentagon designates Anthropic a supply-chain risk”, 5 de marzo de 2026.
2. Reuters, “Trump administration defends Anthropic blacklisting in U.S. court”, 18 de marzo de 2026.
3. CNBC, “Palantir delivers first two AI-enabled systems to U.S. Army”, 7 de marzo de 2025.
4. U.S. Army, “Army Awards Palantir Potential $10B Agreement”, 31 de julio de 2025.
5. DefenseScoop, “Palantir lands $480M Army contract for Maven Smart System”, mayo de 2024; ampliado a 795 millones de dólares en mayo de 2025.
6. Modern Diplomacy, “Great Power Competition in AI-led Warfare between the US and China”, octubre de 2025. Inversión privada: EE. UU., 109 mil millones en 2024; China, 98 mil millones proyectados para 2026 con 56 mil millones de fuente gubernamental. Fuente base: Stanford HAI, 2024.
7. U.S. Army War College, “Where Does the Cyber Arms Race Lead to in the Age of Artificial Intelligence?”, septiembre de 2025. Sobre el uso de DeepSeek por el Ejército Popular de Liberación.
8. Usanas Foundation, “Regulating Lethal Autonomous Weapons Systems in a Fractured Multipolar Order”, enero de 2026. Sobre el voto del Primer Comité de la AGNU y la oposición de EE. UU. y Rusia.
9. ICRC, “Human Control over Autonomous Weapons: Meaningful or Not?”, 2024. Sobre la definición operativa de “control humano significativo” y sus límites.
10. TechPolicy Press, “Europe’s AI Act Leaves a Gap for Military AI”, marzo de 2026.
11. Ministerio de Asuntos Exteriores de España, “REAIM Summit 2026”, A Coruña, 4-5 de febrero de 2026.
12. Portafolio / La Jornada, “Colombia presenta el primer batallón de drones de América Latina”, octubre de 2025.
13. El Universal / Wall Street Journal, “Drones armados, una amenaza creciente en América Latina”, enero de 2026. Incluye declaración del presidente Petro del 29 de diciembre de 2025.
14. +972 Magazine / Local Call, “Lavender: The AI machine directing Israel’s bombing spree in Gaza”, abril de 2024. Sobre el sistema Lavender, los 37.000 objetivos marcados y la tasa de error del 10%.
15. ONU OCHA / The Guardian, “Strike on UNRWA school in Nuseirat kills 23”, julio de 2024. Sobre el ataque del 7 de julio de 2024.
16. Reuters / BBC, “World Central Kitchen convoy strike, Gaza”, abril de 2024. Sobre los siete trabajadores humanitarios muertos en ruta preaprobada.
17. The Jerusalem Post / Haaretz, “Autonomous Iranian drone captured in Ukraine”, mayo de 2025. Primer sistema letal completamente autónomo documentado en conflicto activo.
18. RUSI / Defense One, “Ukraine’s AI targeting modules and the last-mile autonomy problem”, 2025. Sobre los módulos de 70 dólares y la fase final sin operador humano.
Estás Leyendo cambioin.com