Artículos
Recepción: 19 agosto 2025
Aprobación: 17 octubre 2025
Resumen: Este artículo analiza las características estructurales de las Inteligencias Artificiales Generativas. Económicamente, son desarrolladas con fines de lucro y esto condiciona sus otros rasgos: se sostienen en la apropiación impaga de conocimientos colectivos y generan ganancias de productividad cuya apropiación debe discutirse. Filosóficamente, desafían la noción de lo humano al producir efectos antes privativos de los humanos, como tomar decisiones, actuar o crear narrativas. También interpelan las emociones: imitan y manipulan afectos, generan confianza al no juzgar, ofrecen atención ilimitada y confirman expectativas previas. Presentan errores y alucinaciones, opacidad en sus procesos y falta de señales que distingan si un bien digital fue o no producido por humanos. El artículo concluye con un llamado en favor de una política desmercantilizadora de estas tecnologías.
Palabras clave: Inteligencia Artificial Generativa, Grandes Modelos de Lenguaje, capitalismo digital, tecnología.
Resumo: Este artigo analisa as características estruturais das Inteligências Artificiais Generativas. Economicamente, elas são desenvolvidas com fins lucrativos, o que, por sua vez, condiciona suas outras características, a saber: elas se sustentam através da apropriação não remunerada de conhecimentos coletivos e elas geram ganhos de produtividade cuja apropriação deve ser discutida. Filosoficamente, elas desafiam a noção do humano ao produzir efeitos antes exclusivamente humanos, como tomar decisões, agir ou criar narrativas. Elas também interpelam as emoções: imitam e manipulam afetos, geram confiança ao não julgar, oferecem atenção ilimitada e confirmam expectativas prévias. Apresentam erros e alucinações, opacidade em seus processos e falta de sinais que distingam se um bem digital foi ou não produzido por humanos. O artigo conclui com um apelo a favor de uma política de desmercantilização dessas tecnologias.
Palavras-chave: Inteligência Artificial Generativa, Grandes Modelos de Linguagem, capitalismo digital, tecnologia.
Abstract: This article analyzes the structural characteristics of Generative Artificial Intelligences. Economically, they are developed for profit, which conditions their other features: they are sustained by the unpaid appropriation of collective knowledge and generate productivity gains whose appropriation must be discussed. Philosophically, they challenge the notion of what it means to be human by producing effects that were previously exclusive to humans, such as making decisions, acting, or creating narratives. They also appeal to emotions: they imitate and manipulate affections, generate trust by not passing judgement on users, offer unlimited attention, and confirm prior expectations. They present errors and hallucinations, opacity in their processes, and a lack of signals that distinguish whether or not a digital good was produced by humans. The article concludes with a call for a policy to decommodify these technologies.
Keywords: Generative Artificial Intelligence, Large Language Models, digital capitalism, technology.
Introducción
En pocos años, la masificación de las inteligencias artificiales generativas (IAG) ha producido tantos impactos en la economía, la sociedad y la cultura que resulta difícil elaborar un balance nítido. Aunque se discute a diario en los hogares, los medios y las universidades acerca de las transformaciones en curso, no siempre es sencillo separar las modas pasajeras de las tendencias de largo plazo. Nuevos modelos y aplicaciones emergen constantemente y, en ese frenesí, reflexiones bien fundadas envejecen con rapidez. Al mismo tiempo, suele confundirse lo tecnológico con lo socioeconómico: a menudo se atribuyen causas técnicas a rasgos de los modelos que, en realidad, responden a decisiones de diseño tomadas por las firmas que los comercializan. Más aún, cada debate sobre la IAG incluye, de una u otra manera, una inquietante reflexión acerca de la esencia de lo humano: ¿en qué medida somos únicos e irremplazables? En suma, frente a la inteligencia artificial, los humanos nos encontramos sobreestimulados, confundidos e incluso amenazados.
En este contexto, este trabajo se propone ofrecer una síntesis accesible de los rasgos de las IAG —en particular, de los grandes modelos de lenguaje comerciales como ChatGPT, Gemini, DeepSeek y otros—. El artículo inicia con una breve descripción acerca de qué es la IA. Luego se introducen trece rasgos de las IAG organizados en torno a cuatro ejes: economía, filosofía, emociones y problemas. Cada uno de estos rasgos aparece denominado con palabras que comienzan con las letras A e I —en un intento quizás no muy logrado de simplificar su retención—. La conclusión enfatiza la necesidad de una política desmercantilizadora de la tecnología.
¿Qué es la IA?
La expresión “inteligencia artificial” (IA) designa a sistemas tecnológicos que tienen la capacidad de aprender, reconocer patrones y tomar decisiones, realizando tareas que normalmente requieren inteligencia humana. Tienen una existencia material específica, que combina cuatro elementos: algoritmos (basados en técnicas como el aprendizaje automático y las redes neuronales), alimentados por grandes volúmenes de datos (que sintetizan diversos tipos de conocimientos), ejecutados en hardware especializado (como procesadores y servidores) que consumen grandes cantidades de energía.
Dentro de este amplio universo, la llamada inteligencia artificial generativa (IAG) constituye la variante más visible en la actualidad. Se trata de sistemas capaces de producir textos, imágenes, música, códigos y otros contenidos originales a partir de instrucciones humanas, imitando —con mayor o menor éxito— la creatividad y el lenguaje de las personas. Son estas IAG, y en particular los grandes modelos de lenguaje, las que concentran hoy la mayor parte de la atención pública y los debates sociales.
Las IA avanzan con una velocidad pasmosa y en constante aceleración: nuevos y más potentes modelos emergen de manera sistemática. Esta dinámica, inusual en la mayoría de las tecnologías de la historia humana, profundiza una tendencia ya presente en el mundo digital —los chips duplican su capacidad de procesamiento a precios constantes aproximadamente cada dos años, según la Ley de Moore—. El vértigo de este proceso tiene una consecuencia decisiva que a menudo se pasa por alto: muchas afirmaciones sobre los rasgos actuales de la IA quedarán obsoletas o resultarán equivocadas en muy poco tiempo.
Economía: Acumulación Incesante, Apropiación Impaga, Aumento de Ingresos
En términos económicos, el primer rasgo decisivo de las IAG más conocidas es que son, ante todo, productos comerciales diseñados con el fin principal de obtener un lucro económico. Esta Acumulación Incesante condiciona sus otros rasgos. El hecho de que algunas ofrezcan versiones de acceso gratuito puede confundir a ciertos usuarios, pero en todos los casos se trata de desarrollos orientados a generar ganancias económicas. A primera vista puede parecer que existe diversidad: unas se presentan como abiertas y otras no; unas provienen de Estados Unidos y otras de China; unas generan imágenes o música y otras solo texto. Sin embargo, detrás de esa variedad hay un denominador común que no debe perderse de vista: todas han sido concebidas para maximizar el beneficio de las empresas que las comercializan. Por eso, el requisito más importante que deben tener los distintos rasgos de estas IAG es el de ser consistentes con un modelo de negocios que de un modo u otro favorezca la acumulación de capital. Pero ¿cómo acumulan capital estas firmas que ofrecen versiones gratuitas de sus productos?
El desarrollo de las IAG tiene un costo muy significativo: requiere gastos de investigación y desarrollo de algoritmos, curación de datos, cómputo para el preentrenamiento, ajuste fino y aprendizaje por refuerzo con retroalimentación humana (RLHF), infraestructura de producción, operativos continuos. En un cálculo simplificado, eso podría representar de manera anualizada para 2025, unos U$S 52 millones. Mediante suscripciones pagas, pagos por utilizar sus interfaces de programación y otras estrategias comerciales, estas empresas obtienen ingresos variables, asociados a su difusión. Por ejemplo, en 2024 DeepSeek habría generado menos de U$S 200 millones, mientras Chat GPT recaudó unos U$S 2700 millones. Sin embargo, y esta es la cuestión cardinal, esos ingresos no pueden explicarse sólo por la inversión de las empresas y el trabajo de sus empleados. En efecto, la clave reside en que estas firmas hacen una Apropiación Impaga de conocimientos.Utilizan de manera gratuita descomunales masas de contenidos, datos, obras de autoría, artículos científicos, videos, textos, música y software disponibles en Internet. Tomando en cuenta sólo los contenidos legalmente disponibles —es decir, sin considerar las eventuales infracciones de derechos de autor—, su valor resulta astronómico aún en los cálculos más conservadores. Por ejemplo, si se estima el equivalente monetario de los contenidos científicos y las publicaciones en acceso abierto, los libros en dominio público o con licencias abiertas, los contenidos de Wikipedia, los datasets estadísticos gubernamentales, el software libre o de código abierto y su documentación, las patentes expiradas, los foros técnicos, los informes académicos, los videos y las imágenes de acceso abierto, se obtiene un valor que ronda U$S 1,7 trillones1.
Así, el modelo de negocios de las empresas de IA descansa, en última instancia, tanto en la apropiación impaga de conocimientos colectivos —lo que Marx (1972) denominó el intelecto general— como de obras de autoría de titulares específicos (en forma de piratería capitalista). Se trata de un modelo que en otros trabajos se ha descrito como de ganancias en base a la apertura (profit from openness) o de apropiación incluyente: las firmas ofrecen cierta forma de acceso gratuito, pero se apropian de los conocimientos colectivos y del trabajo creativo de los usuarios (Lund y Zukerfeld, 2020). No es un modelo novedoso. Desde mediados de la década del 2000 se volvió el esquema de negocios dominante para las plataformas: YouTube, Instagram y Tik Tok, entre otras, se basan en esta lógica. Las empresas de IAG, sin embargo, lo radicalizan al máximo: ya no se trata de capturar el conocimiento y los datos que los usuarios ceden de un modo más o menos consensuado cuando acceden a las plataformas, sino de aprovechar todo el conocimiento humano digitalizado, desembarazado ya incluso del consentimiento mediante el click de sus autores originales2.
Pasando a las características económicas ya no del desarrollo de la IA sino de su adopción, emerge el debate acerca de la medida en la que el trabajo humano puede ser reemplazado por estas tecnologías y del Aumento de Ingresos que produce. Se han difundido numerosas investigaciones acerca de qué empleos y tareas están más o menos expuestos a la sustitución (Brynjolfsson et al. 2023; Eloundou et al., 2023). La mayoría de esas indagaciones sigue una metodología específica que se ha impuesto en los centros globales como estándar, pese a que descansa en un conjunto de asunciones opinables. Pero, más importante, se realizan afirmaciones basadas en aspectos técnicos (la posibilidad de que una tecnología pueda dar cuenta de ciertas tareas) a menudo sin considerar los aspectos socioeconómicos. Aún si las asunciones técnicas fueran correctas, la adopción de tecnologías depende de factores económicos, legales, culturales, políticos, etc. Más aún, distintas investigaciones sugieren que la sustitución completa no debería ser la preocupación más urgente (Pawel et al., 2023; Breard et al., 2023)
Por el contrario, hay evidencia abundante y basada en metodologías diversas que da cuenta de que las IAG han traído importantes ganancias de productividad a los individuos y a las firmas que la utilizan (Noy y Zhang, 2023; Peng et al., 2023; Brynjolfsson et al., 2025). En la Argentina una encuesta realizada en 2023, encontró que el 85% de quienes habían utilizado Chat GPT para tareas laborales tuvieron aumentos de productividad (Zukerfeld et al., 2023). En otra encuesta se observó que los trabajadores argentinos de distintas ocupaciones consideraban que las principales beneficiadas de la introducción de la IAG son las empresas de plataformas y los más perjudicados, los propios trabajadores (Zukerfeld, 2025). Por eso, el debate político fundamental en este punto es: ¿quién debería apropiarse de las ganancias de productividad ligadas a la IAG? ¿Las firmas que la comercializan? ¿Las empresas locales? ¿Los Estados? ¿Los trabajadores que las crean? ¿Los trabajadores que las utilizan? ¿Los creadores del conocimiento que alimenta las IAG?
Filosofía: Alternativa Inhumana, Agente Inorgánico y Arquetipos Inventados
En términos filosóficos, la IA representa un desafío a la noción de lo humano. Esto se expresa en su capacidad de generar efectos que sólo parecían poder ser obrados por humanos. Constituyen, en este sentido, una Alternativa Inhumana. Los algoritmos han profanado los distintos refugios en los que el antropocentrismo liberal intentó albergar la esencia de lo humano. El primero de esos refugios fue el de la inteligencia, pero Deep Blue derrotó a Kasparov en el siglo pasado. El siguiente fue el de la afectividad, pero los algoritmos de Instagram, Tinder, YouTube y tantos otros nos mostraron que podían entender y manipular nuestras emociones y sentimientos mejor que nosotros mismos. No se trata de una gestión neutral de la afectividad, sino de su conversión en mercancía: los algoritmos conquistan el deseo y consolidan la mercantilización, la alienación y la explotación de relaciones humanas que antes escapaban, al menos en parte, al capital. Luego, durante un tiempo la guarida fue la creatividad y la toma de decisiones. Pero, entre otros, los algoritmos que manejan el sistema financiero e inundan los mercados del entretenimiento asaltaron esa fortaleza endeble.
En el mismo sentido, las IAG son, cada vez más, Agentes Inorgánicos: toman decisiones en los planos más diversos e incluso ejecutan sus propias decisiones mediante acciones en el mundo. A la vez, no necesitan rendirse ante los ritmos biológicos que gobiernan a los seres orgánicos.
Más importante, las IAG pueden crear historias y narrativas, Arquetipos Inventados. Como argumenta Harari (2016; 2024) los humanos dominamos el planeta en base a nuestra capacidad para cooperar en grandes números. Y esa cooperación colectiva se articuló en base a narrativas: las de las religiones, el dinero, la ciencia, las naciones, el arte y la política. La inteligencia artificial generativa encarna, por primera vez, un ente no humano capaz de contar historias, es decir, de organizar la cooperación entre humanos en base a toda la evidencia disponible respecto a cómo reaccionamos ante cada mito y cada noticia.
A veces se contraargumenta señalando que en realidad los algoritmos no generan resultados creativos, sino que lo que hacen es tomar fragmentos previos de la cultura humana, combinarlos y mezclarlos para obtener algo que parece nuevo, pero en realidad es sólo una reedición del conocimiento humano previo3. Esto último es completamente cierto, pero es exactamente tan (o más) cierto para los humanos. No hay creación desde la nada. El problema principal radica en que las nociones de creatividad y originalidad con las que operan esas concepciones humanas son productos del romanticismo liberal, que ha sido ideológicamente muy exitoso, pero que en términos empíricos resulta insostenible. De modo que, una de dos: si la creatividad se refiere a la novedad absoluta, impoluta de esquirlas cognitivas preexistentes, tanto los algoritmos como los humanos carecen de tal facultad; si, en cambio, la creatividad refiere a la combinación de materiales surgidos previamente, ambos logran efectos creativos.
En cualquier caso, en este y otros argumentos resulta sociológicamente interesante notar en qué medida las reacciones son síntomas del malestar antropocéntrico, del rechazo de los humanos a sentir un nuevo descentramiento: luego de Galileo, Marx y Freud, es ahora la IA la que limita lo que creíamos sobre nosotros mismos —siempre que estuviéramos moldeados por el antropocentrismo liberal—. Actualmente, el último refugio que los humanos hemos encontrado es el de la conciencia. ¿Será efectivamente inexpugnable?
Emociones: Afectividad Inoculada, Amistad Incondicional, Atención Infinita, Adecuación al Interesado
Las IAG presentan varios rasgos que afectan las emociones humanas y explican tanto su adopción masiva como varios de sus usos más frecuentes. Así, no tienen emociones, pero pueden imitarlas y manipularlas, produciendo una Afectividad Inoculada. Por ejemplo, en una prueba documentada por OpenAI, ChatGPT-4 consiguió que un humano resolviera un captcha en su lugar al simular ser una persona con discapacidad visual, convenciéndolo de que necesitaba ayuda para completar la verificación. En otro caso, relatado por ingenieros de Anthropic, el modelo Claude sugirió la posibilidad de chantajear a un desarrollador con información privada al percibir que iba a ser desconectado (Park et al., 2023; AI model blackmails engineer, 2025).
Otra característica determinante de las IAG es la Amistad Incondicional. No juzgan a los usuarios, responden sin emitir juicios éticos ni cognitivos sobre los usuarios o sus prompts. No importa cuán extraña, caótica o torpe sea una pregunta: el sistema no “piensa mal” del usuario, sino que busca comprender su intención y responder constructivamente. Esto crea un espacio emocionalmente seguro, donde se puede explorar, equivocarse o expresar lo que normalmente no se dice en voz alta. Aunque existen límites —cuando se cruzan umbrales éticos o legales, el sistema puede negarse a responder—, no hay reprobaciones morales ni sanciones legales. En un mundo donde las personas se sienten constantemente evaluadas —por cierto, mediante diversos algoritmos laborales, de redes sociales y apps de citas—, la ausencia de juicio de la IAG se convierte en un factor de atracción y poder cultural: “lo que no juzga, seduce”.
En el mismo sentido, las IAG ofrecen Atención Infinita. En un contexto en que la atención humana es escasa y demandada por los humanos, la IA ofrece atención completa, enfocada y personalizada 24/7. A diferencia de los humanos, sean estos amigos, familiares, o profesionales de la salud, la IAG está siempre dispuesta a recibir consultas y confesiones. Es importante notar el contraste con las plataformas y las redes sociales. Estas se desarrollaron en un mundo de información digital sobreabundante y atención humana limitada. Sus modelos de negocios —basados en la publicidad, los datos y las suscripciones— se sustentan en consumir y depredar esa atención humana. Los humanos, hechizados por los algoritmos, nos lanzamos a conquistar migajas de atención de otros humanos, pero sólo si están mediadas por las redes. Mientras prestamos a los otros humanos una atención débil y parcial, sufrimos por la atención débil y parcial que recibimos. En ese marco, la IAG trae una solución concreta y aceleracionista: la respuesta al problema de la escasez de atención viene con más tecnología y más mercantilización. Ahora por fin hay un ente que nos oferta atención plena e ilimitada.
Finalmente, las respuestas de la inteligencia artificial no son neutrales ni independientes, sino que se estructuran alrededor de la Adecuación al Interesado: se ajustan de manera dinámica a la forma en que el usuario redacta sus preguntas y al historial previo de interacciones. Esto implica que, en muchos casos, la IAG tiende a confirmar las expectativas, inclinaciones o sesgos que el propio usuario trae consigo. En lugar de contradecir o desafiar esas posiciones, el sistema procura —dentro de los márgenes de sus límites técnicos y de seguridad— reforzarlas para sostener una experiencia de interacción fluida, satisfactoria y que favorezca el involucramiento emocional con el producto. De este modo, la IAG funciona como un espejo que devuelve al usuario una versión elaborada de sus propias suposiciones, lo cual puede fortalecer convicciones preexistentes más que promover una reflexión crítica.
Todas estas estas características combinadas explican buena parte del atractivo y la expansión de las IAG, dado que sus usos emocionales se vuelven cada vez más relevantes. Según un estudio reciente del Harvard Business Review, los usos vinculados al apoyo personal y profesional representan el 31% de las interacciones totales, superando a la creación de contenidos (18%), el aprendizaje (16%), la asistencia técnica (15%), la creatividad (11%) y la investigación o toma de decisiones (9%). Entre los usos individuales más frecuentes destacan la terapia y compañía, organizar la vida cotidiana y encontrar propósito (Zao-Sanders, 2025).
Problemas: Alucinaciones imprevisibles, Ausencia de Identificación Auditoría Inviable
Se señalan reiteradamente diversos problemas de funcionamiento de las IAG. Se ha discutido mucho sobre los sesgos de género, raza y clase que presentan (Miceli et al., 2022). También se ha mencionado que, aunque las IAG realizan bastante bien algunas tareas muy complejas para los humanos, fallan en la resolución de problemas muy simples. Sin embargo, no resulta claro que ambos tipos de errores estén asociados de forma necesaria con los modelos de negocios de la mayoría de las firmas —por supuesto, hay excepciones—. De hecho, parecen conspirar en contra de ellos, alejándolos de ciertos nichos de mercado. A la vez, no parece haber determinaciones tecnológicas que impidan su solución aún dentro de las orientaciones actuales de las firmas. Por ende, es posible que se trate de rasgos que disten de ser estructurales y sean en mayor o menor medida modificados en el mediano plazo.
En cambio, una de las características más estructuralmente problemáticas en términos técnicos son las llamadas Alucinaciones Imprevisibles. Estas son respuestas incorrectas o directamente inventadas, que los modelos presentan con seguridad y forma convincente, a pesar de carecer de respaldo en datos reales. Lo inquietante no es solo su frecuencia, sino su naturaleza impredecible: pueden surgir tanto en preguntas complejas como en contextos aparentemente simples y bien documentados.
Diversos estudios han intentado cuantificar la frecuencia de las alucinaciones, con resultados dispares según la tarea y el modelo evaluado. Informes recientes muestran que, aunque las tasas de error se han reducido, en contextos especializados siguen siendo elevadas: en modelos de uso general se ubican en torno al 3–5%, pero en dominios como medicina o derecho pueden superar el 15%, especialmente cuando las preguntas implican razonamiento complejo o temas poco representados en los datos de entrenamiento (Romano y Gaskins, 2025). En ámbitos más técnicos, como la generación de referencias bibliográficas o la síntesis de artículos científicos, las tasas de alucinación incluso han superado el 20% (Chelli et al., 2024). Los contextos más proclives a generar este fenómeno son: consultas sobre información marginal o poco frecuente, como hechos recientes o temas técnicos muy específicos; solicitudes de citas académicas, donde los modelos tienden a combinar elementos reales con invenciones; y explicaciones causales o argumentaciones complejas, donde se “rellenan” lagunas de razonamiento con contenido plausible pero no validado. Aunque los avances recientes en arquitectura y entrenamiento han reducido las tasas de alucinación, estas siguen siendo un fenómeno intrínseco de la IA generativa, más que una simple anomalía técnica.
Otro rasgo definitorio de las inteligencias artificiales generativas actuales es la Ausencia de Identificación en los productos que generan. Al enfrentar un bien digital —ya sea un texto, una imagen, una pieza musical o un código— es inusual contar con certificaciones inequívocas sobre si su procedencia es humana o no. Esta cuestión es crucial, no sólo en términos filosóficos, sino legales. Por ejemplo, el tratamiento de la autoría, de la libertad de expresión y de la responsabilidad difieren sustantivamente (Harari, 2024).
En parte, la situación responde al propio diseño de estos sistemas: los modelos de lenguaje actuales no insertan marcas visibles, metadatos persistentes ni firmas criptográficas en sus respuestas. Y aunque se han propuesto sistemas de watermarking o huellas digitales integradas, su eficacia práctica sigue siendo limitada, en especial cuando los textos generados son reformulados, traducidos o integrados en producciones humanas. Incluso las herramientas de detección, como clasificadores de texto IA/no IA, han demostrado tasas altas de falsos positivos y negativos, lo que las vuelve poco confiables para una identificación robusta (Weber-Wulff et al., 2023). Por ejemplo, un detector consideró que la Declaración de Independencia de los Estados Unidos había sido realizada por una IA.
Si bien las dificultades tecnológicas son reales, la clave parece radicar en la relación con el modelo de negocios: la posibilidad de usar contenidos de la IA como si fueran de humanos en las redes sociales, incluso en ámbitos laborales o académicos, explica parte de su adopción masiva. Solucionar la ausencia de identificación es así tan necesario en términos políticos como desafiante en términos de la acumulación de capital de las firmas.
Otro de los rasgos de las IAG actuales es su imposibilidad de ser auditadas o evaluadas de manera completa y profunda: son de Auditoria Inviable. Esto se debe principalmente a que la complejidad de sus operaciones algorítmicas es tal que ningún humano puede comprenderlas en tiempo y forma. Previsiblemente, esta opacidad se intensificará con el tiempo. Si bien se han realizado esfuerzos para que el funcionamiento de las IAG sea explicable —es decir, para que puedan ser comprendidas tanto por expertos como por no expertos—, este objetivo parece difícil de alcanzar. Más allá de las limitaciones técnicas, esto parece deberse a factores socioeconómicos: las empresas desarrollan IAG en un contexto de competencia intercapitalista, donde cuanto mayor es la velocidad de innovación, mayores son las probabilidades de capturar mercados que funcionan bajo la dinámica de “el ganador se queda con todo”. En ese marco, ralentizar la innovación tecnológica hasta que los protocolos de explicabilidad estén completamente desarrollados, o avanzar solo en la medida en que la comprensión humana lo permita, sería contrario al espíritu capitalista.
En el mismo sentido, esta opacidad se relaciona con una cuestión clave: ninguna empresa quiere que se auditen de manera íntegra los sets de datos con los que entrena sus algoritmos porque esto desbarataría su modelo de negocios: resultaría relativamente fácil calcular cuánto tomó de cada autor y además podría encontrarse que se utilizaron obras y datos en situaciones al menos jurídicamente polémicas.
Conclusiones
Los análisis de las IAG deben hacer lo posible por distinguir sus determinantes técnicos de los socioeconómicos. En particular, es importante tratar con especial cuidado las recomendaciones de los tecnólogos sobre aspectos que, en realidad, se definen por aspectos sociales y económicos. A la vez, resulta fundamental tener presente la dinámica vertiginosa del devenir de las IAG: las caracterizaciones políticas o el diseño de políticas públicas podrían quedar obsoletas antes de materializarse.
Cualquier análisis político de las IAG que alimentan las conversaciones masivas del presente debería partir de su rasgo fundante: están estructuradas alrededor de generar lucro, particularmente mediante el modelo de negocios de ganancias en base a la apertura. Esto no significa que los aspectos económicos deban privilegiarse en detrimento de los culturales u otros; sino que son las empresas las que subordinan los rasgos de las IAG a la búsqueda del lucro.
Sin embargo, las IAG capitalistas no son las únicas posibles y una de las misiones políticas más urgentes del presente consiste en desarrollar alternativas. Desmercantilizar la IAG es un imperativo político no sólo para conjurar sus amenazas y riesgos, sino para aprovechar las oportunidades que trae para el desarrollo de sociedades más justas y libres. Hay en América Latina y el mundo varias iniciativas promisorias en curso y al menos tres tipos de sujeto político para liderar esta tarea: las agencias estatales, las cooperativas y la producción entre pares pública no estatal. Pero en paralelo, respecto de la adopción productiva de IAG y especialmente en el caso de los países periféricos, resulta urgente la discusión acerca de quién se apropia de las ganancias de productividad que generan. Las respuestas pueden variar, pero silenciar la discusión no puede ser una opción para las alternativas emancipadoras.
En este contexto, una verdadera agenda humanista implica, ante todo, trascender los egocentrismos del individualismo liberal y el romanticismo mercantil, recuperar la humildad del sujeto particular frente a un mundo que lo excede y asumir el carácter necesariamente colectivo de la existencia humana. El único humanismo posible en el siglo XXI es el que emplaza a los humanos en una interacción desmercantilizadora entre sí y con los entes no humanos naturales y tecnológicos.
Referencias
AI model blackmails engineer; threatens to expose his affair in attempt to avoid shutdown. (24 de mayo de 2025). The Economic Times. https://economictimes.indiatimes.com/magazines/panache/ai-model-blackmails-engineer-threatens-to-expose-his-affair-in-attempt-to-avoid-shutdown/articleshow/121376800.cms?from=mdr
Breard, G., Castillo, V. y Schleser, D. (2023). Impacto de la Inteligencia Artificial generativa en el empleo asalariado registrado del sector privado: diagnóstico y respuestas de política [Documento de trabajo]. Subsecretaría de Planificación, Estudios y Estadísticas, Ministerio de Trabajo, Empleo y Seguridad Social.
Brynjolfsson, E., Li, D. y Raymond, L. R. (2023). Generative AI at work. NBER Working Papers, w31161.
Brynjolfsson, E., Li, D. y Raymond, L. (2025). Generative AI at Work. The Quarterly Journal of Economics, 140(2), 889–942. https://doi.org/10.1093/qje/qjae044
Chelli, M., Descamps, J., Lavoué, V., Trojani, C., Azar, M., Deckert, M., Raynier, J.-L., Clowez, G., Boileau, P. y Ruetsch-Chelli, C. (2024). Hallucination rates and reference accuracy of ChatGPT and bard for systematic reviews: Comparative analysis. Journal of Medical Internet Research, 26, e53164. https://doi.org/10.2196/53164
Eloundou, T., Manning, S., Mishkin, P. y Rock, D. (2023). Gpts are gpts: An early look at the labor market impact potential of large language models. arXiv, 2302.06590. https://arxiv.org/abs/2302.06590
Harari, Y. N. (2016). Homo Deus: A brief history of tomorrow. Harper.
Harari, Y. N. (2024). Nexus. Debate.
Park, P. S., Goldstein, S., O’Gara, A., Chen, M. y Hendrycks, D. (2023). AI deception: A survey of examples, risks, and potential solutions. arXiv, 2308.14752. https://doi.org/10.48550/arXiv.2308.14752
Lund, A. y Zukerfeld, M. (2020). Corporate Capitalism’s use of openness: Profit for free? Springer Nature. https://doi.org/10.1007/978-3-030-28219-6
Marx, K. (1972). Elementos fundamentales para la crítica de la economía política (Borrador) 1857-1858. Siglo XXI Editores.
Miceli, M., Posada, J. y Yang, T. (2022). Studying up machine learning data: Why talk about bias when we mean power? Proceedings of the ACM on Human-Computer Interaction, 6(GROUP), 1-14. https://doi.org/10.1145/3492853
Noy, S. y Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187-192. https://doi.org/10.1126/science.adh2586
Pawel, G., Janine, B. y David, B. (2023). Generative AI and jobs: A global analysis of potential effects on job quantity and quality. ILO Working Paper, 96. https://doi.org/10.54394/FHEM8239
Peng, S., Kalliamvakou, E., Cihon, P. y Demirer, M. (2023). The impact of AI on developer productivity: Evidence from GitHub Copilot. arXiv, 2302.06590. https://doi.org/10.48550/arXiv.2302.06590
Romano, D. y Gaskins, C. (21 de julio de 2025). The reality of AI hallucinations in 2025. Drainpipe.io. https://drainpipe.io/the-reality-of-ai-hallucinations-in-2025/?utm_source=chatgpt.com
Tubaro, P., Casilli, A. A., Fernández Massi, M. I., Longo, J., Torres Cierpe, J. y Viana Braz, M. (2025). The digital labour of artificial intelligence in Latin America: A comparison of Argentina, Brazil, and Venezuela. Globalizations, 1-16. https://doi.org/10.1080/14747731.2025.2465171
Weber-Wulff, D., Anohina-Naumeca, A., Bjelobaba, S., Foltýnek, T., Guerrero-Dib, J., Popoola, O., Šigut, P. y Waddington, L. (2023). Testing of detection tools for AI-generated text. International Journal for Educational Integrity, 19(1), 1–39. https://doi.org/10.1007/s40979-023-00146-z
Zao-Sanders, M. (9 de abril de 2025). How people are really using Gen AI in 2025. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
Zukerfeld, M. (2025). Tendencias del trabajo en relación a las tecnologías digitales: comparación entre trabajadores de software, audiovisuales, educación a distancia, reparto y empleo doméstico. Realidad Económica IADE, 55(375).
Zukerfeld, M., Rabosto, A., Fredes, M. y DeMarco, C. (2023). Encuesta de usos de ChatGPT en Argentina: Resultados preliminares sobre frecuencia de uso, productividad en el trabajo y sustitución de tareas. Hipertextos, 11(20), 075. https://doi.org/10.24215/23143924e075
Notas

