Foto:Johan Sebastián Gutiérrez Mosquera. columnista invitado cambioin.com
Por: Editor en Jefe - Publicado en mayo 11, 2026
Por: Johan Sebastián Gutiérrez Mosquera. Columnista invitado cambioin.com
Advertencia: los comentarios escritos a continuación son responsabilidad única y exclusiva de su autor, y en nada compromete a este medio de comunicación digital.
Trabajo invisible, inteligencia artificial y la nueva geografía del poder.
La imagen fundacional del capitalismo moderno no es una fábrica humeante. Es una sala de trabajo modesta, en la que diez operarios —uno estira el alambre, otro lo corta, otro afila la punta, otro coloca la cabeza— producen juntos cuarenta y ocho mil alfileres por día. Adam Smith la abrió en 1776 como ilustración de la productividad: la especialización multiplica el rendimiento.1 Lo que Smith no formuló —y que dos siglos y medio de desarrollo tecnológico permiten leer retroactivamente— es la conclusión más incómoda de esa misma imagen: la fábrica de alfileres es un algoritmo. Un procedimiento de instrucciones secuenciales, dividido en subprocesos especializados, distribuido en operadores intercambiables, orientado a producir un resultado a máxima velocidad con el mínimo de recursos. La diferencia entre esa fábrica y un sistema de software moderno no es de naturaleza: es de sustrato. En 1776, el algoritmo corría en cuerpos humanos. Hoy corre en silicio. La lógica —fragmentar, especializar, replicar, optimizar— es la misma.
Esa continuidad tiene una genealogía histórica que el filósofo italiano Matteo Pasquinelli ha reconstruido con precisión quirúrgica en The Eye of the Master (Verso, 2023).2 En 1794, el matemático Gaspard de Prony recibió del gobierno revolucionario francés el encargo de producir las tablas logarítmicas que la República necesitaba para modernizar su cartografía y su artillería. Acababa de leer a Smith. Su solución fue aplicar el principio de la división del trabajo al cálculo manual: organizó a sus calculistas en tres niveles jerárquicos —los matemáticos que diseñan las fórmulas, los algebristas que las reducían a operaciones simples, y los calculistas de tercer nivel que ejecutaban esas operaciones sin necesitar comprender su sentido.3 De Prony construyó, en cuerpos humanos, lo que Pasquinelli denomina un algoritmo social: una arquitectura de control cognitivo donde la inteligencia del proceso se desplazó completamente del ejecutor hacia el diseñador del sistema.
Pocos años después, en la Inglaterra industrial, Charles Babbage leyó a De Prony y lo convirtió en principio de diseño mecánico. Si la división del trabajo podía organizar el cálculo humano con esa eficiencia, razonó, podía también organizar el cálculo de una máquina. El resultado fue el Difference Engine —la primera computadora mecánica de la historia—, cuya arquitectura interna reproducía exactamente la jerarquía del algoritmo social de De Prony.4 Babbage formuló lo que Pasquinelli llama la labour theory of the machine: el diseño de una máquina imita y reemplaza el diagrama de una división de trabajo preexistente. La computadora no surgió de la imaginación solitaria de un ingeniero: surgió de la abstracción de un proceso colectivo de trabajo humano. La máquina fue, desde su origen, la objetivación de la división del trabajo en artefacto.
Marx leyó a Babbage y llegó más lejos. En los Grundrisse, en el fragmento que la tradición llama 'Fragmento sobre las máquinas' —redactado entre 1857 y 1858, publicado en italiano por los Quaderni Rossi en 1964—5 formuló la consecuencia sistémica de ese proceso: el desarrollo del capital fijo tiende a absorber progresivamente el conocimiento vivo del trabajador —su saber, su juicio, su destreza— y objetivarse en la maquinaria. Marx llamó a esa inteligencia colectiva acumulada el general intellect: la síntesis de las fuerzas productivas del cerebro social, absorbida en el capital por oposición al trabajo. El trabajador deja de ser el actor central del proceso productivo para convertirse en su vigilante: el que supervisa lo que la máquina hace en su lugar. Harry Braverman completó esa arquitectura teórica en Labor and Monopoly Capital (Monthly Review Press, 1974):6 la separación sistemática entre concepción y ejecución —entre quien piensa el proceso y quien lo realiza— no fue un efecto colateral de la eficiencia industrial. Fue la estrategia deliberada mediante la cual el capital vació de contenido intelectual el trabajo obrero, concentrando el saber en la cúpula gerencial y reduciendo al trabajador a operador intercambiable. Taylor comprendió a Babbage mejor que ninguno de sus contemporáneos. Y lo que comprendió es que la división del trabajo era simultáneamente un principio de eficiencia y un principio de dominación.
Esa razón que fragmenta, mide, optimiza y réplica sin preguntarse jamás por el fin es lo que Horkheimer y Adorno, en la Dialéctica de la Ilustración (1947), llamaron razón instrumental.7 La línea de ensamblaje no es una metáfora de esa razón: es su forma más perfecta. En ella, cada operación ha sido reducida a su mínima expresión ejecutable, el pensamiento ha sido extirpado del hacer, y la inteligencia del proceso se ha desplazado completamente del operador hacia el diseño del sistema. Marcuse profundizó ese diagnóstico en El hombre unidimensional (1964):8 la racionalidad tecnológica no solo organiza la producción, coloniza la subjetividad. El trabajador que ejecuta funciones fragmentadas no solo trabaja en fragmentos: aprende a pensar en fragmentos. La capacidad de negar —de imaginar que las cosas podrían ser de otro modo— es paulatinamente extirpada del repertorio mental disponible. La fábrica no produce sólo mercancías. Produce también un tipo de sujeto.
Aquí es donde el relato estándar sobre la inteligencia artificial se detiene —justo antes de lo más revelador. El discurso dominante sobre la IA generativa repite el mismo movimiento que las narrativas industriales del siglo XIX: describir la automatización como algo que sucede sobre el trabajo humano, desde arriba, eliminándolo. Lo que esa descripción borra es el nivel más bajo de la jerarquía de De Prony: el que ejecuta sin comprender, el que en 2025 tiene nombre y dirección postal. Se llaman ghost workers: los anotadores de datos de entrenamiento, los evaluadores de retroalimentación por refuerzo con preferencias humanas (RLHF), los moderadores de contenido subcontratados en Kenia, en Filipinas, en Venezuela, en Colombia. Son los calculistas de tercer nivel de la revolución algorítmica.9
En mayo de 2024, noventa y siete de ellos —etiquetadores de datos kenianos— escribieron una carta abierta al presidente Biden describiendo sus condiciones como 'esclavitud moderna'.10 La cadena de subcontratación es deliberada: una empresa de moderación de contenido facturaba 12,50 dólares la hora al cliente final, mientras pagaba al trabajador keniano entre 1,32 y 2 dólares.11 Más de 140 moderadores de Facebook en Kenia han sido diagnosticados con trastorno de estrés postraumático severo. En 2025, un grupo de ellos fundó la Asociación de Etiquetadores de Datos (Data Labelers Association) para exigir contratos directos y atención en salud mental —enfrentando, como señaló su secretario Michael Geoffrey Abuyabo, leyes laborales kenianas que los grandes operadores explotan deliberadamente como vacío legal.12 El argumento que denuncia la invisibilización del trabajo no puede, coherentemente, invisibilizar el trabajo que lo produce.
Lo que la inteligencia artificial ha transformado cualitativamente respecto de las fases anteriores de la automatización no es la eliminación del trabajo humano —esa es la promesa del marketing, no la realidad de los centros de datos— sino el desplazamiento del punto de control. En todas las fases previas, el humano seguía siendo el operador intelectual central: la máquina reemplaza la fuerza muscular o el cálculo repetitivo, pero el juicio, la interpretación, la adaptación contextual permanecían en el dominio humano. Los modelos de lenguaje a gran escala desplazan ese límite hacia el nivel simbólico. Lo que cambia no es si el humano trabaja —sigue trabajando, en los tres niveles de la jerarquía—, sino quién controla el diseño del sistema. Y esa pregunta ya no depende de la organización del trabajo. Depende de la propiedad de la infraestructura.
Las cifras de esa propiedad son elocuentes. Amazon, Microsoft y Google controlan colectivamente cerca del 70% del mercado global de computación en nube —y, junto a Meta, poseen más de la mitad de los cables submarinos de Internet.13 En el cuarto trimestre de 2025, esas cinco empresas invirtieron conjuntamente 140.600 millones de dólares en un solo trimestre, a una tasa de crecimiento anual del 72% desde mediados de 2023.14 El acuerdo entre OpenAI y AWS asciende a 38.000 millones de dólares en siete años. Nvidia ha invertido 100.000 millones en OpenAI a cambio de participación accionaria, en una economía circular donde el fabricante de los chips más escasos del planeta opera directamente con quien los necesita para entrenar los modelos.15 La concentración no es lateral al proceso de producción de inteligencia artificial: es su condición material. El general intellect que Marx vio transferirse del trabajador al capital fijo ha alcanzado, en los grandes modelos de lenguaje, una masa tal que el sistema puede autorreproducir fragmentos de su propia inteligencia. Pero esa masa no pertenece a la humanidad como bien común. Pertenece a cinco empresas con sede en California y Washington.
Desde América Latina, esa geografía no es abstracta. La región representa el 6,6% del PIB global pero apenas el 1,1% de la inversión mundial en inteligencia artificial, según el Índice Latinoamericano de Inteligencia Artificial de la CEPAL y el CENIA. El mercado de IA en la región, valorado en aproximadamente 4.700 millones de dólares en 2024, descansa casi en su totalidad sobre infraestructura que no controla: AWS, Azure y Google Cloud dominan cerca de dos tercios de la computación en nube regional.16 Los algoritmos que tomarán decisiones sobre sistemas de salud, políticas públicas, mercados laborales y plataformas educativas en Colombia, en México, en Argentina, están siendo diseñados en el nivel más alto de la jerarquía —el de los matemáticos que formulan las ecuaciones— desde centros de cómputo cuya propiedad no está en el hemisferio. La región aporta los calculistas de tercer nivel: los datos de entrenamiento, los usuarios que alimentan los modelos, ocasionalmente los moderadores subcontratados. A cambio, recibe acceso a herramientas diseñadas en otros idiomas, para otros contextos, con otras prioridades. Esta no es una metáfora de la dependencia colonial. Es su continuación técnica.17
La pregunta que Adam Smith formuló en 1776 permanece, dos siglos y medio después, sin respuesta políticamente satisfactoria: ¿quién diseña el algoritmo? En la época de Smith, esa pregunta tenía una respuesta económica: el propietario de la fábrica. En la de De Prony, una respuesta técnico-política: el Estado revolucionario. En la de Taylor, una respuesta gerencial: la cúpula que separa concepción y ejecución. Hoy, en la era de los modelos fundacionales, tiene una respuesta geopolítica: las cinco empresas que controlan el 70% de la nube global. Que esa respuesta no provoque la misma indignación que Smith provocó en sus adversarios —o que Braverman en los suyos— dice algo sobre la eficacia de la razón instrumental para borrar sus propias huellas. Y algo sobre la urgencia de recuperar, desde la periferia, la capacidad de hacerlas visibles.
NOTAS Y REFERENCIAS
1. Adam Smith, La riqueza de las naciones, Libro I, capítulo 1, 'De la división del trabajo' (1776). Edición de referencia: Andrew Skinner (ed.), Penguin Classics, Londres, 1999. El ejemplo de la fábrica de alfileres abre el primer capítulo y estima la producción diaria entre 48.000 y 48.000 alfileres para una partida de diez operarios especializados.
2. Matteo Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence, Verso Books, Londres/Nueva York, 2023. ISBN: 9781788730068. La genealogía De Prony-Babbage-Marx y el concepto de algoritmo social constituyen el núcleo argumentativo del capítulo 2. El libro ha sido reseñado en Critical Inquiry (mayo de 2024), Media Theory Journal y Penguin Random House lo distribuye en mercados anglófonos.
3. Lorraine Daston, 'Calculation and the Division of Labor, 1750–1950', Bulletin of the German Historical Institute, núm. 62, primavera de 2018, pp. 9–30. Daston provee el mejor análisis histórico independiente del proyecto De Prony como antecedente directo de la computación automática.
4. Charles Babbage, On the Economy of Machinery and Manufactures, Charles Knight, Londres, 1832. La conexión entre el proyecto De Prony y el diseño del Difference Engine aparece en el capítulo XIX. El Difference Engine fue diseñado en 1822; el Analytical Engine (computadora de propósito general) en 1834.
5. Karl Marx, Grundrisse: Foundations of the Critique of Political Economy, cuadernos 6 y 7 (1857–1858). Traducción al inglés: Martin Nicolaus, Penguin Books, 1973, pp. 690–714. El término general intellect aparece en p. 706. Primera publicación italiana: 'Frammento sulle macchine', trad. Renato Solmi, Quaderni Rossi, núm. 4, 1964. Para el contexto de recepción, véase Matteo Pasquinelli, 'On the Origins of Marx's General Intellect', Radical Philosophy, vol. 2, núm. 6, invierno de 2019.
6. Harry Braverman, Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century, Monthly Review Press, Nueva York, 1974. La tesis sobre la separación entre concepción y ejecución como estrategia deliberada de control se desarrolla en la Parte II, 'Science and Mechanization', y en los capítulos sobre el taylorismo.
7. Max Horkheimer y Theodor W. Adorno, Dialektik der Aufklärung: Philosophische Fragmente, Querido Verlag, Ámsterdam, 1947. Traducción al castellano: Dialéctica de la Ilustración, Trotta, Madrid, 1994. El concepto de razón instrumental como lógica de la dominación aparece en el ensayo central 'El concepto de Ilustración'.
8. Herbert Marcuse, One-Dimensional Man: Studies in the Ideology of Advanced Industrial Society, Beacon Press, Boston, 1964. Traducción castellana: El hombre unidimensional, Ariel, Barcelona, 1969. Marcuse discutió el potencial emancipatorio de la automatización —incluida su lectura del 'Fragmento sobre las máquinas'— en el mismo año de publicación del texto marxiano en Italia.
9. El término ghost workers fue acuñado por Mary L. Gray y Siddharth Suri en Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass, Houghton Mifflin Harcourt, Boston, 2019. Para la dimensión latinoamericana: 'Exploitation and Poor Working Conditions for AI Data Annotators in Kenya and Colombia', OECD AI Policy Observatory, octubre de 2025.
10. Carta abierta de 97 trabajadores kenianos de datos al presidente Biden, mayo de 2024, citada en múltiples fuentes: 'Ghost Work: The Hidden Humans Behind AI', Science Array, octubre de 2025; 'The Exploitation of Data Workers', Interfaith Center on Corporate Responsibility (ICCR), 2024. La carta fue entregada durante la visita del presidente keniano William Ruto a Washington.
11. Brecha salarial en la cadena de subcontratación: 'Ghost Work in the AI Economy: Unveiling the Hidden Labour Behind Intelligent Systems', Breakthrough Pursuit, octubre de 2025. La investigación documenta contratos donde la empresa intermediaria factura 12,50 USD/hora al cliente final (empresa de IA en Silicon Valley) mientras el moderador keniano recibe entre 1,32 y 2,00 USD/hora.
12. Diagnósticos de PTSD: 'Ghost Work: The Hidden Humans Behind AI', Science Array, octubre de 2025. Sobre la Data Labelers Association (DLA): 'Kenyan AI workers form Data Labelers Association', Computer Weekly, 14 de febrero de 2025. Cita del secretario Michael Geoffrey Abuyabo sobre vacíos legales deliberadamente explotados: ibid.
13. Concentración del mercado de computación en nube: 'Policies for Advancing Digital Sovereignty in Latin America', UCL Bartlett Faculty of the Built Environment, agosto de 2025. Cifra del 70% sobre mercado global de nube y mayoría de cables submarinos en manos de cuatro empresas (Amazon, Microsoft, Google, Meta).
14. Datos de inversión en infraestructura: Epoch AI, Big Tech AI Spending Over Time (2022–2025), publicado en Visual Capitalist, abril de 2026. Capex combinado de cinco hyperscalers (Alphabet, Amazon, Meta, Microsoft, Oracle): 448.300 millones de dólares en 2025; 140.600 millones de dólares en el cuarto trimestre de 2025 solamente. Tasa de crecimiento anual del 72% desde el segundo trimestre de 2023.
15. Acuerdo OpenAI-AWS de 38.000 millones de dólares en siete años: 'OpenAI signs $38B AWS deal', TechBuzz AI, noviembre de 2025. Acuerdo Nvidia-OpenAI de 100.000 millones en acciones y compute: 'The billion-dollar infrastructure deals powering the AI boom', TechCrunch, 28 de febrero de 2026. La economía circular entre fabricante de chips, proveedor de nube y desarrollador de modelos es descrita como 'circular' por analistas del sector en el mismo reportaje.
16. Índice Latinoamericano de Inteligencia Artificial (CEPAL-CENIA), octubre de 2025, citado en: 'In the age of AI, Latin America must choose: Sovereignty or dependence', UPI Voices, 18 de febrero de 2026. Cifras: 6,6% del PIB global; 1,1% de la inversión mundial en IA; mercado regional de 4.700 millones de dólares en 2024, proyectado a 30.000 millones en 2033. Dominio de AWS, Azure y Google Cloud: 'Latin America, the Caribbean caught in the middle on AI governance', IAPP, julio de 2025.
17. Sobre dependencia estructural y soberanía digital en América Latina: Natan Amado, 'AI Sovereignty in Latin America: Regional Digital Dependence and the Potential to Overcome It', RegulAIte Working Paper, núm. 02/2025, Ámsterdam, 2025. Para la continuidad con patrones históricos de dependencia tecnológica: 'Regional integration as a remedy against technological dependency?', Tandfonline / Policy & Internet, publicado en línea el 27 de noviembre de 2025.
Johan Sebastián Gutiérrez Mosquera