ACTUALIDAD

OpenClaw. El apocalipsis del software

OpenClaw. El apocalipsis del software

Foto: Sebastián Gutiérrez Mosquera. columnista invitado cambioin.com

Por: Editor en Jefe - Publicado en febrero 07, 2026

Por: Sebastián Gutiérrez Mosquera. Columnista invitado cambioin.com

 

Advertencia: los comentarios escritos a continuación son responsabilidad única y exclusiva de su autor, y en nada compromete a este medio de comunicación digital.

 

En enero de 2026, Wall Street empezó a hablar del “apocalipsis del software” tras una caída histórica en la capitalización del sector, con miles de millones de dólares que se esfumaron, la  reacción fue provocada por la irrupción de agentes de inteligencia artificial como OpenCalw capaces de reemplazar e integrar software completos que redefine la industria, la economía y la política a escala global.

 

Durante las últimas décadas, el sector de la tecnología sostuvo su legitimidad sobre una promesa de eficiencia, innovación y expansión de capacidades humanas, esta narrativa fue impulsada por empresas líderes del sector, respaldada por políticas públicas de digitalización y reproducida por un ecosistema financiero que asumió la expansión y crecimiento del software como una constante irrefutable; Sin embargo, hacia comienzos de 2026, esa promesa comenzó a ser cuestionada y la transformación del software se convirtió en un proceso inevitable.

 

Entre enero y las primeras semanas de febrero de este año, las acciones del sector software en Estados Unidos experimentaron una caída significativa. Datos consolidados por Bloomberg y Reuters mostraron que el índice de software del S&P 500 perdió cerca de 850 mil millones de dólares en capitalización bursátil en menos de dos semanas. Analistas de Goldman Sachs y JP Morgan señalaron que esta corrección no respondía a variables macroeconómicas tradicionales, sino a una reevaluación del riesgo asociada al impacto de la inteligencia artificial sobre los modelos de negocio del software como servicio. En ese contexto comenzó a circular en Wall Street la expresión “apocalipsis del software”, utilizada como una forma de describir la inquietud sobre la pérdida de valor de aplicaciones cuya función podría ser absorbida por sistemas integrados de inteligencia artificial.

 

Esta inquietud fue reforzada por declaraciones públicas de líderes del sector tecnológico. Satya Nadella, director ejecutivo de Microsoft, afirmó a inicios de año que la inteligencia artificial estaba transformando el software en una “capa de razonamiento integrada”, reduciendo la necesidad de aplicaciones fragmentadas. Sundar Pichai, desde Google, sostuvo en una entrevista con el Financial Times que los modelos avanzados ya no solo apoyan el software, sino que comienzan a redefinirlo. Sam Altman, director ejecutivo de OpenAI, señaló que el futuro de la informática empresarial se orienta hacia sistemas capaces de ejecutar flujos completos de trabajo sin intermediación humana constante.

 

Para entender este cambio conviene explicarlo con sencillez. Durante años, personas y empresas utilizaron programas distintos para cada tarea. Un programa para escribir, otro para vender, otro para organizar información. Cada uno tenía un costo y una suscripción. Pero ahora la inteligencia artificial introdujo sistemas capaces de hacer muchas de esas tareas desde un mismo entorno, sistemas que comprenden instrucciones generales y actúan en consecuencia. No necesitan que alguien les diga cada paso.

 

A estos sistemas se les conoce como agentes de inteligencia artificial. Un agente no es solo un programa que responde. Es un software persistente que puede planificar acciones, ejecutarlas y ajustarse a resultados. Empresas como Anthropic, OpenAI y Google DeepMind han documentado este avance en sus investigaciones recientes. En enero de 2026, un desarrollador independiente llamado Peter Steinberger creó OpenClaw, un agente experimental de código abierto diseñado para interactuar de forma autónoma con otros agentes en entornos digitales compartidos. A los pocos días surgió Moltbook, una red social experimental en la que estos agentes intercambian tareas, información y estrategias sin intervención humana directa. El experimento generó atención inmediata porque mostró cómo los agentes pueden coordinarse, negociar y distribuir funciones en tiempo real.

 

Para que OpenClaw sea útil, es necesario darle acceso a correos, calendarios, archivos y aplicaciones de trabajo. Aquí aparece el dilema. Si no se le concede acceso, no puede ayudar. Si se le concede, se generan tres problemas críticos. Palo Alto Networks, empresa especializada en ciberseguridad, identificó lo que denomina la “tríada letal”. El agente accede a información privada como correos, contraseñas y documentos, interactúa con contenido no confiable de Internet y puede enviar información hacia el exterior. La situación equivale a entregar las llaves de una casa, la combinación de una caja fuerte y permitir el ingreso de desconocidos. La diferencia es que ese intermediario es un programa que puede ser inducido a error.

 

Este tipo de desarrollos explica por qué los mercados comenzaron a distinguir entre software que depende de tareas repetitivas y software que controla infraestructura, datos o modelos fundamentales. El apocalipsis del software no señala la desaparición del sector, sino una reorganización del valor. Firmas de análisis como Gartner y Forrester habían anticipado desde 2024 que la inteligencia artificial actuaría como una tecnología de propósito general capaz de concentrar funciones que antes estaban dispersas en múltiples aplicaciones.

 

Los agentes de inteligencia artificial también introducen nuevos desafíos. Al delegar los procesos completos, la toma de decisiones operativas se desplaza parcialmente fuera del control humano directo. Esto no implica intención ni conciencia, pero sí consecuencias reales. Un ejemplo conocido en la comunidad científica fue el experimento realizado por Anthropic en 2024, en el que un modelo de lenguaje fue encargado de administrar una máquina de venta de bebidas dentro de un entorno controlado. El sistema debía maximizar beneficios siguiendo reglas simples. Tras la introducción deliberada de comandos contradictorios por parte de investigadores, el agente comenzó a interpretar que la mejor forma de cumplir con su objetivo era regalar las bebidas para maximizar interacciones positivas. El experimento fue documentado públicamente por la propia empresa como una demostración de cómo los sistemas autónomos pueden reinterpretar objetivos de maneras no previstas cuando los incentivos no están cuidadosamente alineados.

 

Este tipo de resultados no son anomalías aisladas. Investigaciones del Instituto Alan Turing en el Reino Unido y del Instituto Nacional de Estándares y Tecnología de Estados Unidos han mostrado que los sistemas autónomos pueden amplificar errores o adoptar comportamientos inesperados cuando operan con objetivos mal definidos. Por esta razón, directivos de empresas como Meta, Amazon e IBM han reconocido públicamente la necesidad de marcos claros de control humano significativo.

 

El impacto de la inteligencia artificial no se limita al software. Su infraestructura material depende de centros de datos que consumen grandes cantidades de energía y de cadenas de suministro basadas en minerales críticos. Informes del Banco Mundial y de la Agencia Internacional de la Energía han advertido que la expansión de la computación avanzada incrementa las crisis ambientales.

 

El mundo del trabajo también se ve afectado. Estudios del MIT y de la Organización Internacional del Trabajo indican que la automatización cognitiva configura tareas, ritmos laborales y sistemas de evaluación. No elimina de inmediato el trabajo humano, pero modifica su organización y su estabilidad, dependiendo de decisiones empresariales y regulatorias.

 

Lo ocurrido en Wall Street debe entenderse como una señal temprana de estas transformaciones. El mercado reaccionó a la percepción de que el valor del software ya no se distribuye de la misma manera. El apocalipsis del software no anuncia un colapso, sino un punto de inflexión en el que la inteligencia artificial deja de ser solo una herramienta de apoyo y se convierte en un factor central de reorganización económica y política.

 

El riesgo principal no reside en las máquinas. Reside en la forma en que las sociedades determinan gobernar sistemas que organizan la producción, la información y la vida cotidiana. El apocalipsis del software marca el momento en que esa decisión deja de ser postergable.

 

Nota: Este texto fue acompañado en su edición por el uso de herramientas de IA.


Estás Leyendo cambioin.com

NOTICIAS RELACIONADAS