Dossier

De la racionalidad instrumental a la gobernanza algorítmica: repensar la responsabilidad jurídica y la eficiencia económica en los mercados impulsados por IA

From Instrumental Rationality to Algorithmic Governance: Rethinking Legal Responsibility and Economic Efficiency in AI-Driven Markets

Hebe Haydee Horny
Universidad Nacional de Río Cuarto, Argentina
Claudio Gustavo Bonamico
Universidad Nacional de Río Cuarto, Argentina

Revista Fundamentos

Universidad Nacional de Río Cuarto, Argentina

ISSN-e: 2545-6318

Periodicidad: Semestral

núm. 2, 2025

fundamentos@fce.unrc.edu.ar

Recepción: 31 octubre 2025

Aprobación: 01 diciembre 2025



Autor de correspondencia: hhorny@hotmail.com

Resumen: Este artículo examina críticamente cómo la irrupción de la inteligencia artificial (IA) en los mercados laborales y administrativos tensiona los fundamentos epistemológicos del homo economicus y, con ello, los pilares del análisis económico del derecho. A partir de un enfoque interdisciplinario que combina teoría jurídica, economía institucional y ética de la tecnología, se analiza el caso argentino como laboratorio empírico de los desafíos regulatorios, éticos y distributivos que plantea la gestión algorítmica del trabajo. Se argumenta que la persistencia de la ficción del agente racional individual obstaculiza la emergencia de un marco normativo capaz de abordar la agencia distribuida, la opacidad estructural de los algoritmos y la reconfiguración de la responsabilidad jurídica en entornos socio-técnicos híbridos. El estudio propone reemplazar el paradigma neoclásico por un modelo de gobernanza algorítmica híbrida, fundamentado en principios de transparencia, explicabilidad, supervisión humana significativa y justicia distributiva. Se concluye que, sin una regulación vinculante que garantice derechos laborales fundamentales y evite la discriminación algorítmica, la IA profundizará las desigualdades preexistentes en contextos de alta informalidad como el argentino.

Palabras clave: inteligencia artificial, homo economicus, derecho del trabajo, gobernanza algorítmica, discriminación algorítmica.

Abstract: This article critically examines how the integration of artificial intelligence (AI) into labor markets and administrative decision-making challenges the epistemological foundations of the homo economicus and, by extension, the core assumptions of law and economics. Drawing on an interdisciplinary framework that combines legal theory, institutional economics, and the ethics of technology, the study analyzes Argentina as a paradigmatic case of regulatory gaps, labor precarity, and algorithmic governance in a middle-income country. The research demonstrates that the persistence of the rational-agent fiction impedes the emergence of a normative framework capable of addressing distributed agency, structural opacity of algorithms, and the reconfiguration of legal responsibility in socio-technical environments. The article proposes replacing the neoclassical paradigm with a model of hybrid algorithmic governance, grounded in transparency, explainability, meaningful human oversight, and distributive justice. It concludes that without binding regulation safeguarding fundamental labor rights and preventing algorithmic discrimination, AI will exacerbate pre-existing inequalities—particularly in contexts marked by high informality such as Argentine.

Keywords: artificial intelligence, homo economicus, labor law, algorithmic governance, algorithmic discrimination.

Metodología de la investigación

Este trabajo adopta una estrategia cualitativa de análisis documental con enfoque interpretativo-crítico. El objetivo no es medir estadísticamente la difusión de la inteligencia artificial en el mercado de trabajo argentino, sino reconstruir y evaluar críticamente los marcos normativos, económicos y éticos que condicionan su despliegue en la gestión del empleo.

El corpus de análisis se compone de tres tipos de materiales:

a) instrumentos normativos internacionales y regionales sobre inteligencia artificial y derechos humanos (en particular, la Recomendación de la UNESCO sobre la ética de la inteligencia artificial, la Recomendación del Consejo de la OCDE sobre IA y el Plan Nacional de Inteligencia Artificial –Plan ArgenIA–);

b) documentos de política pública y lineamientos emitidos por organismos estatales argentinos con incidencia en la regulación de sistemas algorítmicos;

c) literatura académica y de think tanks sobre impacto de la IA en el trabajo, análisis económico del derecho y gobernanza algorítmica.

El procedimiento metodológico combina: (i) lectura analítica de los textos seleccionados, identificando supuestos sobre racionalidad económica, distribución de riesgos y protección de derechos laborales; (ii) contraste entre dichos supuestos y la evidencia empírica disponible sobre sesgos algorítmicos, concentración de proveedores y asimetrías de poder en la gestión del trabajo; y (iii) elaboración de un marco conceptual propio que articula la figura del homo economicus con la del homo algorithmicus para describir la reorganización de la agencia en contextos de automatización.

La triangulación entre teoría, norma y datos secundarios no se orienta a la verificación estadística de hipótesis, sino a evaluar la coherencia interna y la pertinencia contextual de los marcos regulatorios existentes. La confrontación sistemática entre discursos normativos, principios económicos y prácticas documentadas de gestión algorítmica del trabajo permite someter a prueba la solidez de las categorías analíticas utilizadas y fundamentar la propuesta de un modelo de gobernanza algorítmica híbrida centrado en derechos.

Finalmente, la investigación asume una postura reflexiva: reconoce las limitaciones derivadas de la rápida evolución tecnológica y de la disponibilidad desigual de evidencia empírica, explicitando en cada sección qué afirmaciones se apoyan en datos verificables y cuáles constituyen inferencias normativas justificadas a partir del corpus analizado.

1. Introducción

La Cuarta Revolución Industrial, caracterizada por la fusión de tecnologías digitales, biológicas y físicas, ha transformado radicalmente la organización del trabajo, la toma de decisiones económicas y la arquitectura institucional del Estado (Schwab, 2016). En este contexto, la inteligencia artificial (IA) —entendida como sistemas capaces de imitar funciones cognitivas humanas como el aprendizaje, el razonamiento y la percepción (UNESCO, 2021)— ha dejado de ser una promesa futurista para convertirse en un actor socio-técnico central en la gestión de recursos humanos, la asignación de crédito, la vigilancia laboral y la provisión de servicios públicos.

Sin embargo, esta transformación ocurre en un marco normativo obsoleto. El análisis económico del derecho, desde sus orígenes en la obra de Becker (1976) y Posner (1981), ha descansado sobre la figura del homo economicus: un agente racional, autointeresado, con preferencias estables y capacidad ilimitada de procesamiento. Esta ficción reguladora, ya cuestionada por la economía conductual (Kahneman & Tversky, 1979), colapsa ante la externalización cognitiva que implica la delegación de decisiones en sistemas algorítmicos opacos. Cuando un algoritmo decide quién es contratado, evaluado o despedido, la noción de agencia individual se disuelve en una red socio-técnica donde la causalidad y la responsabilidad se difuminan.

Argentina ofrece un caso paradigmático para explorar esta crisis epistemológica. Históricamente marcado por altos niveles de informalidad laboral, precarización y desigualdad estructural, el país enfrenta la irrupción de la IA sin un marco regulatorio vinculante que garantice derechos fundamentales en el ámbito laboral. Aunque existen iniciativas como el Plan ArgenIA (2019) o la adhesión al Pacto Global de IA (2022), estas carecen de fuerza normativa y no abordan los riesgos específicos de la gestión algorítmica del trabajo (Farinella, 2024; Ministerio de Justicia y Derechos Humanos, 2023).

Este artículo tiene como objetivo analizar cómo la IA reconfigura las categorías fundamentales del derecho del trabajo y la economía en Argentina, y proponer un marco normativo alternativo basado en principios de gobernanza algorítmica híbrida. La hipótesis central es que la superación del homo economicus no es un ejercicio teórico, sino una necesidad política urgente para evitar que la IA reproduzca y amplifique las desigualdades preexistentes.

La descomposición del homo economicus: racionalidad limitada y externalización cognitiva

En la tradición neoclásica, el homo economicus se concibe como un agente perfectamente racional, dotado de información completa y capaz de maximizar de forma consistente su utilidad bajo restricciones conocidas. Esta figura idealizada ha sido criticada desde la economía comportamental y la sociología económica, que han mostrado la presencia sistemática de sesgos, racionalidad limitada y estructuras de poder que distorsionan tanto la información disponible como las decisiones efectivamente tomadas.

El modelo neoclásico presupone que los agentes maximizan utilidad con información perfecta. Pero desde Simon (1957), la racionalidad humana se reconoce como acotada: los individuos operan bajo incertidumbre, usan heurísticas y sufren sesgos cognitivos. La IA no corrige estas limitaciones; las externaliza. En el ámbito laboral argentino, bancos y empresas de servicios implementan chatbots y sistemas automatizados para atención al cliente, reduciendo costos, pero también eliminando puestos de trabajo administrativos sin garantizar transición laboral.

Esta externalización cognitiva —la transferencia de juicio humano a sistemas opacos— erosiona la base misma del contrato laboral, que presupone una relación de poder asimétrica pero negociable. Cuando un algoritmo decide quién es “productivo” o “confiable”, la negociación colectiva pierde sentido. Empíricamente, estudios recientes confirman que los sistemas de IA en recursos humanos reproducen discriminación por género, raza y clase (Sánchez, 2021; Corvalán, 2024).

En ausencia de una regulación específica y vinculante sobre inteligencia artificial en el ámbito laboral, el uso de sistemas algorítmicos se rige fundamentalmente por normas generales de derecho del trabajo, protección de datos y no discriminación. Este marco ofrece ciertas garantías, pero resulta insuficiente para abordar problemas particulares como la opacidad de los modelos, la externalización de decisiones hacia proveedores tecnológicos y la acumulación de asimetrías de información a favor de quienes controlan la infraestructura digital.

La paradoja es clara: la IA promete racionalidad instrumental, pero su opacidad genera una nueva forma de irracionalidad sistémica —una racionalidad algorítmica que es eficiente en términos de costos, pero injusta en términos distributivos. Como señala Etchemendy, Ottaviano & Scasserra (2022), la “gestión algorítmica del trabajo” no solo transforma las condiciones laborales, sino que redefine la noción misma de dignidad en el empleo.

IA y reconfiguración de la responsabilidad jurídica

El derecho tradicional atribuye responsabilidad a sujetos con capacidad de intención y control. Pero en entornos algorítmicos, la causalidad se difumina. ¿Quién responde cuando un sistema de IA en recursos humanos discrimina a candidatos por su origen socioeconómico? ¿El programador? ¿El empleador? ¿La plataforma que vende el software?

En Argentina, esta laguna normativa es crítica. A pesar de la adhesión a los Principios de la OCDE sobre IA (2019) y la Recomendación de la UNESCO sobre la Ética de la IA (2021), no existe una ley que regule el uso de IA en el ámbito laboral. Las recomendaciones del Ministerio de Justicia (2023) carecen de sanciones y no establecen mecanismos de rendición de cuentas efectivos.

A nivel internacional, emergen marcos regulatorios que ofrecen pistas. El AI Act de la Unión Europea (Reglamento (UE) 2024) introduce un enfoque basado en riesgos, prohibiendo sistemas de IA que manipulen comportamientos o clasifiquen personas por rasgos sensibles. Asimismo, la Recomendación de la UNESCO (2021) exige supervisión humana significativa y explicabilidad algorítmica como condiciones para el respeto a los derechos humanos.

En contraste, la República Argentina se limita a recomendaciones no vinculantes, lo que deja a los trabajadores en una situación de extrema vulnerabilidad. Como advierte Concha Camacho (2024), sin un “derecho a la transparencia algorítmica”, los sujetos no pueden impugnar decisiones que les afectan profundamente. La responsabilidad jurídica, en este escenario, se evapora en la cadena de diseño, implementación y uso.

Implicaciones económicas: competencia, asimetrías y eficiencia en mercados algorítmicos

La economía neoclásica asume mercados competitivos con información simétrica. Pero los mercados algorítmicos son profundamente asimétricos: unas pocas plataformas controlan datos, modelos y estándares. En la República Argentina, la concentración de proveedores de IA en recursos humanos (o capital humano) genera poder de mercado no regulado.

Esto tiene tres consecuencias:

  1. 1. Colusión algorítmica: sistemas

    de fijación dinámica de salarios pueden coordinar tácitamente

    para deprimir remuneraciones (Calvano et al., 2020).

  2. 2. Externalidades negativas: la

    opacidad algorítmica impide la auditoría pública, generando

    riesgos sistémicos (Zuboff, 2019).

  3. 3. Ineficiencia dinámica: la falta

    de interoperabilidad y estándares abiertos frena la innovación.

La IA puede generar “nuevas oportunidades laborales”, pero omite que estas suelen ser en sectores de alta calificación, mientras que los trabajadores de bajos ingresos enfrentan precarización. Sin políticas activas de redistribución del conocimiento (p. ej., acceso público a modelos de IA), la brecha se amplía.

Hacia un nuevo paradigma: el homo algorithmicus y la gobernanza híbrida

Frente a este modelo clásico, proponemos la noción de homo algorithmicus para dar cuenta de una racionalidad distribuida entre seres humanos, infraestructuras digitales y sistemas de inteligencia artificial. El homo algorithmicus ya no decide de manera aislada, sino que externaliza parte de sus capacidades cognitivas hacia algoritmos que filtran información, priorizan opciones y organizan el trabajo, redefiniendo los márgenes de autonomía, responsabilidad y poder en el mercado laboral.

Este cambio conceptual implica tres principios normativos:

  1. 1. Explicabilidad como derecho

    fundamental: todo sistema de IA que afecte derechos laborales debe

    ser auditado y explicado en términos comprensibles (Concha Camacho,

    2024).

  2. 2. Evaluación de impacto

    algorítmico obligatoria: inspirada en el modelo europeo, toda

    implementación de IA en el ámbito laboral debe someterse a una

    evaluación previa de riesgos para los derechos humanos.

  3. 3. Co-diseño democrático: los

    trabajadores deben participar en el diseño e implementación de

    sistemas que les afectan, mediante comités de ética algorítmica

    en las empresas.

Desde la perspectiva jurídica, el homo algorithmicus obliga a repensar la atribución de deberes y responsabilidades en clave de agencia distribuida. Las decisiones que estructuran el trabajo ya no se generan únicamente en la relación bilateral empleador-trabajador, sino en una red que involucra a desarrolladores de modelos, proveedores de infraestructura, empresas usuarias y organismos reguladores. En este contexto, la protección de los derechos laborales exige identificar con precisión qué actores definen los objetivos de optimización, qué variables se incorporan a los modelos, cómo se corrigen los sesgos detectados y quién asume los costos cuando la automatización produce daños individuales o colectivos.

En el caso argentino, esta reconfiguración puede articularse con el bloque de constitucionalidad laboral y con normas ya vigentes, como la Ley de Contrato de Trabajo y la Ley 25.326 de protección de datos personales, mediante tres líneas complementarias: (i) reconocer un derecho de información y explicación reforzado frente a decisiones laborales automatizadas, que permita a trabajadores y sindicatos conocer los criterios generales de funcionamiento de los sistemas; (ii) imponer obligaciones de evaluación de impacto algorítmico en materia de igualdad y no discriminación, con participación de las organizaciones representativas de trabajadores; y (iii) atribuir responsabilidades diferenciadas a empleadores y proveedores tecnológicos, de modo que cada uno internalice los costos de prevenir, detectar y corregir sesgos en la gestión algorítmica del trabajo.

De este modo, el homo algorithmicus no debe entenderse como un sujeto pasivo sometido a decisiones ininteligibles, sino como una configuración institucional en la que los derechos laborales, los principios de igualdad y las obligaciones de transparencia se reescriben para abarcar tanto a las personas físicas como a los actores tecnológicos e institucionales que co-determinan el entorno de trabajo. Una gobernanza algorítmica híbrida centrada en derechos implica, precisamente, convertir esa red de agencia distribuida en una red de responsabilidades distribuidas y efectivamente exigibles.

Conclusión

La irrupción de la IA no es un mero cambio tecnológico, sino una crisis epistemológica del modelo jurídico-económico liberal. El caso argentino revela cómo la ausencia de regulación permite que los sistemas algorítmicos reproduzcan y profundicen desigualdades preexistentes. Superar el homo economicus no significa abandonar la racionalidad, sino redefinirla en términos de justicia, transparencia y responsabilidad distribuida.

La experiencia comparada en América Latina muestra que, cuando sistemas algorítmicos se incorporan a procesos sensibles —como la gestión migratoria, el acceso a servicios sociales o la selección de personal— sin marcos de transparencia, supervisión independiente y participación de los grupos afectados, tienden a reproducir y amplificar desigualdades preexistentes en lugar de corregirlas. La IA no es diferente: requiere voluntad política, normativa flexible y cooperación internacional.

Referencias

Álvarez Larrondo, F. M. (Dir.). (2020). Inteligencia artificial y derecho. Buenos Aires: Hammurabi.

Arese, C., Chércoles, R. L., & Ferrario, M. de los Á. (2019). Nuevas tecnologías: Presente y futuro del Derecho del Trabajo. Rubinzal Culzoni.

Becker, G. S. (1976). The economic approach to human behavior. University of Chicago Press

Calvano, E., Calzolari, G., Denicolò, V., & Pastorello, S. (2020). Artificial Intelligence and Algorithmic Collusion: When Machines Learn to Collude. American Economic Review, 110(12), 3895–3925. https://doi.org/10.1257/aer.20190623

Concha Camacho, W. (2024). El derecho a la transparencia algorítmica como estándar ético en una democracia liberal. Revista Jurídica Austral, 5(1), 529–550. https://doi.org/10.26422/RJA.2024.0501.con

Corvalán, J. G. (2024). Tratado de inteligencia artificial y derecho: Tomo I. Buenos Aires: Thomson Reuters.

Etchemendy, S., Ottaviano, J. M., & Scasserra, S. (2022). Gestión algorítmica del trabajo. Fund.ar. https://fund.ar/publicacion/gestion-algoritmica-del-trabajo/

Farinella, M. (2024). Regulación de la inteligencia artificial en Argentina. WSC Legal. https://wsclegal.com/es/regulacion-de-la-inteligencia-artificial-en-argentina/

Kahneman, D., & Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk. Econometrica, 47(2), 263–291.

Ministerio de Justicia y Derechos Humanos de la Nación. (2023). Recomendaciones para el uso de inteligencia artificial. https://www.argentina.gob.ar/justicia/derechofacil/leysimple/educacion-ciencia-cultura/recomendaciones-para-el-uso-de

Organisation for Economic Co-operation and Development (OECD). (2019). Recommendation of the Council on Artificial Intelligence. OECD Legal Instruments, OECD/LEGAL/0449.

Posner, R. A. (1981). The economics of justice. Harvard University Press.

Presidencia de la Nación. (2019). Plan Nacional de Inteligencia Artificial (Plan ArgenIA). Secretaría de Gobierno de Ciencia, Tecnología e Innovación Productiva.

Sánchez, A. (2021). Discriminación algorítmica en el ámbito laboral: Perspectiva de género e intervención. Editorial UOC.

Schwab, K. (2016). La cuarta revolución industrial. Iberdrola. https://www.iberdrola.com/innovacion/cuarta-revolucion-industrial

Simon, H. A. (1957). Models of Man: Social and Rational. Wiley.

UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. UNESCO.

Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

Notas de autor

hhorny@hotmail.com

Modelo de publicación sin fines de lucro para conservar la naturaleza académica y abierta de la comunicación científica
HTML generado a partir de XML-JATS4R