Secciones
Referencias
Resumen
Servicios
Buscar
Fuente


Responsabilidad civil e inteligencia artificial
Civil liability and artificial Intelligence
PAPELES del Centro de Investigaciones de la Facultad de Ciencias Jurídicas y Sociales de la UNL, vol. 20, núm. 2, e0087, 2025
Universidad Nacional del Litoral

Artículos libres

PAPELES del Centro de Investigaciones de la Facultad de Ciencias Jurídicas y Sociales de la UNL
Universidad Nacional del Litoral, Argentina
ISSN: 1853-2845
ISSN-e: 2591-2852
Periodicidad: Semestral
vol. 20, núm. 2, e0087, 2025

Recepción: 23 abril 2025

Aprobación: 12 agosto 2025

Resumen: El uso creciente de sistemas de inteligencia artificial (IA) plantea importantes desafíos para el derecho privado, en especial en lo relativo a la responsabilidad civil por los daños que tales tecnologías pueden causar.

Para poder resolver, cuando se produzcan daños derivados del uso de IA, a quien se imputa responsabilidad, es preciso primero categorizar a estos sistemas. En tal sentido la doctrina ha venido preguntándose si es necesario crear una nueva categoría jurídica o si, por el contrario, las normas jurídicas en vigencia resultan suficientes. Tratando de responder a esta cuestión, se propuso la creación de una personalidad electrónica, asignándole la responsabilidad jurídica de reparar los daños que cause. Se hicieron también otros intentos que giraron en torno a la responsabilidad de los padres por los hechos de los hijos o la prevista para el dueño de un animal. Todos estos intentos fueron descartados rápidamente.

En otras jurisdicciones existen ya regulaciones, pero en nuestro país no tenemos una regulación específica. Algunos autores sostienen que el sistema y los subsistemas vigentes resultan suficientes, otros reclaman una norma general y finalmente existen otras opiniones que señalan la conveniencia de ver caso por caso.

Lo cierto es que, mientras no exista esta regulación, nuestro sistema legal de responsabilidad civil nos permite afrontar los daños que pudieren producirse, ya sea recurriendo a los arts. 1757 y 1758 CCCN o bien, en el supuesto de que el damnificado sea un consumidor, al art. 40 de la ley 24.240.

Palabras clave: Inteligencia artificial, responsabilidad civil, derecho privado, regulación jurídica, actividades riesgosas.

Abstract: The increasing use of Artificial Intelligence (AI) systems raises significant challenges for private law, particularly regarding civil liability for damages caused by such technologies.

To determine who is liable when damages arise from the use of AI, it is essential first to categorize these systems. In this regard, legal scholars have been questioning whether it is necessary to create a new legal category or if, on the contrary, existing legal norms are sufficient. In trying to answer this question, the creation of an electronic personality was proposed, assigning it the legal responsibility to repair the damages it causes. Other attempts were also made regarding the liability of parents for their children's actions or that of an animal's owner. All these attempts were quickly dismissed.

In other jurisdictions, regulations already exist, but in our country, we do not have a specific regulation. Some authors argue that the current system and subsystems are sufficient, while others call for a general norm, and finally, there are other opinions that suggest the convenience of evaluating each case individually.

The truth is that, while this regulation does not exist, our civil liability legal system allows us to address any damages that may occur, either by resorting to articles 1757 and 1758 of the CCCN or, in the event that the harmed party is a consumer, to article 40 of Law 24.240.

Keywords: Artificial Intelligence, civil liability, private law, legal regulation, risk activities.

1. Introducción

Las ventajas que ha traído el uso de la inteligencia artificial son innumerables, como lo son las que se avizoran para un futuro bien cercano. Y esto en todos los campos, las comunicaciones, el transporte, la medicina, la producción de bienes, etc, etc… La contracara son los peligros, o sea la posibilidad cierta de que se ocasionen daños. En tal sentido, no todos los dispositivos dotados de IA tienen la misma potencialidad. Una cosa es un robot para limpiar pisos (sin embargo sabemos ya de un caso de daños producidos por este artefacto)[1] y otra un vehículo autónomo, máquinas potentes, robots, sistemas que almacenan datos,[2] que se utilizan para diagnosticar, predecir, seleccionar empleados, otorgar créditos, entre otros. Daños a la privacidad, riesgos de discriminación por utilización de datos erróneos o sesgados,[3]daños psicológicos derivados de la interacción con robots con rasgos humanos o de animales para acompañar enfermos o niños, son ciertamente esperables.

Ahora bien, para poder resolver, cuando se produzcan daños derivados del uso de IA, a quien se imputa responsabilidad, es preciso primero categorizar a estos sistemas. En tal sentido la doctrina ha venido preguntándose si es necesario crear una nueva categoría jurídica o si, por el contrario, las normas jurídicas en vigencia resultan suficientes. Se busca saber, básicamente, si responderá el fabricante, el distribuidor, importador, programador o desarrollador de la tecnología que ha causado el daño, el usuario de la misma o si es posible asignar responsabilidad al propio agente inteligente, cuando sea capaz de tomar decisiones autónomas.

2. La IA y categorías jurídicas

Tratando de responder a esta cuestión, o sea, a quien imputaremos responsabilidad cuando se cause un daño por el uso de IA, se hicieron diferentes intentos. Así se propuso la creación de una personalidad electrónica, asignándole la responsabilidad jurídica de reparar los daños que cause.[4] Esto fue lo que recomendó, en una primera instancia, el Parlamento Europeo a la Comisión encargada de proponer normas sobre robótica en el año 2017. Tal recomendación generó el rechazo de expertos que pidieron que no se les dé a los robots el estatus de persona electrónica. En el año 2018 la Comisión Europea presentó una comunicación donde, lejos de proclamar una personalidad robótica, advirtió que, cuando se produzcan efectos adversos injustos, deben estar previstos mecanismos accesibles que garanticen una reparación.[5]

La creación de una “personalidad electrónica” importaba, claramente, una clara ventaja para los desarrolladores, que asumen un enorme riesgo. Así, responsabilizando al propio agente, se favorecería el avance tecnológico. Otra razón sustentada fue la dificultad por encontrar al responsable del daño, se dijo entonces que dotando a estos agentes inteligentes de un patrimonio y un seguro, se facilitaría a los damnificados la posibilidad de ser efectivamente resarcidos.[6]

También se propuso asimilar a estos agentes a la persona jurídica, olvidando que las personas jurídicas tienen siempre un sustrato humano, mientras que los agentes inteligentes son creaciones del intelecto humano.[7] También que si les asignamos personalidad, deberíamos reconocerles derechos, a la par que un patrimonio y obligaciones.[8]Como sea, esta posibilidad de crear una personalidad electrónica fue desechada, ya que la misma se fundamentaba más en la intención de eximir de responsabilidades a los fabricantes, que en la de dar una solución a las víctimas de los daños.

Ahora bien, aunque parezca descartada la posibilidad de asignar personalidad electrónica o artificial a estos agentes está claro que, como cosas, presentan particularidades y aptitudes que deben ser captadas y reguladas en tanto y en cuanto pueden tomar decisiones basadas en la experiencia y la interrelación.

Por tal razón se hicieron otras propuestas tratando de categorizar a la IA y resolver el problema de a quién se imputa responsabilidad. Estas giraron en torno a la responsabilidad de los padres por los hechos de los hijos o la prevista para el dueño de un animal.[9] Propuestas también descartadas rápidamente.

3. Algunas regulaciones jurídicas

En otras jurisdicciones existen ya regulaciones de algunas actividades como, por ejemplo, la utilización de vehículos autónomos. Las soluciones que se propician van desde asignar responsabilidad a la persona humana que viaja en el vehículo, a la que lo controla remotamente, al propietario del vehículo, además de a los programadores y a los fabricantes de los mismos, pero en ningún caso se ha propuesto una persona jurídica electrónica responsable.

OCDE adoptó en el año 2019 una Recomendación sobre el uso fiable de la IA, la que fue acogida por los líderes del G20. Esta Recomendación fue revisada por el Consejo de la OCDE en el año 2024. Básicamente se recomienda una gestión responsable de la IA donde los actores respeten el Estado de derecho, los derechos humanos, la democracia y los valores centrados en el ser humano durante todo el ciclo de vida del sistema de IA, incluyendo la no discriminación y la igualdad, la libertad, la dignidad, la autonomía de las personas, la privacidad y la protección de datos, la diversidad, la equidad, la justicia social y los derechos laborales internacionalmente reconocidos. Para ello se recomienda que los sistemas de IA sean robustos, seguros y protegidos durante todo su ciclo de vida para que no planteen riesgos irrazonables de seguridad; que se establezcan mecanismos para garantizar el correcto funcionamiento de los sistemas de IA y su trazabilidad y aplicar un enfoque sistemático de gestión de riesgos.[10]

Por su parte, en noviembre de 2021 fue UNESCO quien elaboró la primera norma mundial sobre IA denominada: "Recomendación sobre la ética de la inteligencia artificial". Es aplicable a los 194 Estados miembros de la organización. El objetivo de la recomendación fue el de servir de base para poner los sistemas de IA al servicio de la humanidad, las personas, las sociedades, el medio ambiente y los ecosistemas, así como para prevenir daños. Aspira también a estimular la utilización de los sistemas de IA con fines pacíficos. Particularmente se recomendó que, en caso de que pueda producirse cualquier daño para los seres humanos, los derechos humanos y las libertades fundamentales, las comunidades y la sociedad en general, o para el medio ambiente y los ecosistemas, debería garantizarse la aplicación de procedimientos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca. También recomienda que los actores de la IA y los Estados Miembros asuman su responsabilidad ética y jurídica respectiva, de conformidad con el derecho nacional e internacional, en particular las obligaciones de los Estados Miembros en materia de derechos humanos, y con las directrices éticas establecidas durante todo el ciclo de vida de los sistemas de IA, incluso con respecto a los actores de la IA dentro de su territorio y bajo su control efectivos. Se establece que: “La responsabilidad ética y la obligación de rendir cuentas de las decisiones y las acciones basadas de alguna manera en un sistema de IA siempre deberían ser atribuibles, en última instancia, a los actores de la IA conforme a la función que tengan en el ciclo de vida del sistema de IA”.[11]

Volviendo al Derecho Europeo, que es donde desde un principio se han preocupado por regular la utilización de la IA, la creciente difusión de la misma planteó interrogantes cruciales en relación con la seguridad, la transparencia y la protección de los derechos fundamentales. Las vulnerabilidades estructurales de los sistemas inteligentes —desde los ataques adversarios hasta la manipulación de datos— evidenciaron la necesidad de un enfoque integrado, que no se limitara a soluciones técnicas, sino que también incorporara principios jurídicos y éticos. La Unión Europea, a través del RGPD y la propuesta de Reglamento sobre IA, ha trazado una vía normativa innovadora, capaz de colocar en el centro del debate el valor de la persona y la confianza en el ecosistema digital. Sin embargo, la regulación de la seguridad en la IA sigue siendo un ámbito en constante evolución, donde los desafíos relacionados con la adaptabilidad normativa y la cooperación internacional requieren respuestas flexibles e interdisciplinarias.[12]

En este sentido fue que se publicó, el 13 de junio de 2024, el Reglamento de la Unión Europea 2024/1689.[13] Este Reglamento establece normas armonizadas en materia de inteligencia artificial y declara como objetivo el de mejorar su funcionamiento y promover una inteligencia artificial (IA) centrada en el ser humano y fiable, que garantice un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA en la Unión así como prestar apoyo a la innovación. Está destinado a proveedores, importadores, fabricantes, distribuidores y representantes que introduzcan al mercado modelos de IA, sin tener en cuenta si estos proveedores están establecidos en la Unión Europea o fuera de ella.

El citado Reglamento comienza por definir lo que va a regular y así, en su art. 3º., nos dice que un "Sistema de IA" es "un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales".

Algunas prácticas resultan directamente prohibidas, como las que importen utilizar un sistema de IA para manipular o engañar, explotar vulnerabilidades de una persona física, evaluar o clasificar a las personas de forma que su puntuación provoque un trato perjudicial o valorar o predecir el riesgo de que una persona cometa un delito o inferir sus emociones o clasificar a las personas en base a sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida u orientación sexual.

También se establecen las reglas para clasificar los sistemas de alto riesgo que son aquellos que planteen un riesgo importante de causar un perjuicio a la salud, seguridad, o los derechos fundamentales de las personas físicas o también al influir sustancialmente en el resultado de la toma de decisiones o efectuar la elaboración de perfiles de las mismas. Para estos sistemas se establece la creación de un sistema de gestión de riesgos y se exige que funcionen con transparencia y supervisión humana, para prevenir o reducir los riesgos.

Además se crean Códigos de buenas prácticas para los modelos de IA de uso general y se obliga a los proveedores a notificar los incidentes graves estableciendo todo un procedimiento para estos casos.

Una de las innovaciones más relevantes del marco propuesto es la institucionalización de la "evaluación de impacto algorítmico", concebida como una herramienta preventiva para analizar los posibles efectos adversos de los sistemas de IA en términos de privacidad, seguridad, discriminación y transparencia… Otra dimensión central del marco legal es la exigencia de trazabilidad de los sistemas de IA. Esto implica que los desarrolladores y operadores de IA deben documentar y archivar de manera sistemática el ciclo de vida del sistema, incluyendo el origen de los datos utilizados, los métodos de entrenamiento del modelo, las decisiones de diseño, y los resultados obtenidos. La trazabilidad no solo es esencial para la rendición de cuentas, sino que también permite detectar fallos, realizar auditorías y facilitar el control regulatorio.[14]

Pero lo que nos interesa destacar, dentro del largo articulado del Reglamento, es que respecto a la responsabilidad por daños, en el art. 79, se estipula que: “Los sistemas de IA que presentan un riesgo se entenderán como productos que presentan un riesgo tal como se definen en el artículo 3, punto 19, del Reglamento (UE) 2019/1020, en la medida en que presenten riesgos que afecten a la salud, la seguridad o los derechos fundamentales de la persona.

Y el Art. 3º. Inciso 19) del Reglamento UE 2019/1020 al que se remite, define al «producto que presenta un riesgo» como un producto que puede afectar negativamente a la salud y la seguridad de las personas en general, a la salud y la seguridad en el trabajo, a la protección de los consumidores, al medio ambiente, a la seguridad pública o a otros intereses públicos protegidos por la legislación de armonización de la Unión aplicable, en un grado que vaya más allá de lo que se considere razonable y aceptable en relación con su finalidad prevista o en las condiciones de uso normales o razonablemente previsibles del producto en cuestión, incluida la duración de su utilización y, en su caso, los requisitos de su puesta en servicio, instalación y mantenimiento...”

Dejando Europa y yendo a EEUU, vemos que allí el Departamento de Seguridad Nacional (DHS) creó un Consejo integrado por los directores ejecutivos de OpenAI, Microsoft, Alphabet —empresa matriz de Google— y Nvidia, para asesorar al Gobierno sobre el papel de la IA. Este Consejo tiene como objetivo concentrarse en la búsqueda y aplicación de soluciones prácticas para garantizar el despliegue de esta tecnología y así contrarrestar las amenazas que puedan surgir por su mal uso.”[15]

En cuanto a nuestro país, no contamos con una regulación completa del funcionamiento de estos sistemas, aunque sí podemos señalar algunas normas sobre la materia como la Disposición 2/23 de la Subsecretaría de Tecnologías de la Información sobre "Recomendaciones para una Inteligencia Artificial Fiable" publicada el 01/06/2023, la Comunicación “A” 7724 del Banco Central de la República Argentina “sobre Requisitos mínimos para la gestión y control de los riesgos de tecnología y seguridad de la información”, destinada a las instituciones reguladas por aquella entidad, las resoluciones 428/2024 (sobre "cibepatrullaje") y 710/2024 (de creación de la Unidad de Inteligencia Aplicada a la Seguridad),[16] la resolución 111/2024 del Ministerio de Seguridad de la Nación que crea el "Programa Nacional Integral de IA en la justicia" o la "Guía en materia de Transparencia y Protección de Datos para una IA responsable" dictada por AAIP (Agencia de Acceso a la Información Pública). Existen además varios proyectos legislativos en la materia.

Las “Recomendaciones para una Inteligencia Artificial Fiable” mencionadas, fueron aprobadas por la Disposición SSTI 2/2023 de la Subsecretaría de Tecnologías de la Información y se basan en la Recomendación sobre la Ética de la Inteligencia Artificial de UNESCO, el marco normativo de la Unión Europea, los principios de Asilomar,[17] los Principios de la OCDE sobre IA, los Principios de IA centrados en el ser humano del G20 y los trabajos de AI4Good de la UIT.[18]Se trata de recomendaciones generales que, en lo que hace a responsabilidad específicamente, solo prevé que: “Ante incidentes éticos, quienes estén designados como responsables deben actuar de forma inmediata, contando con los medios definidos a tal fin en la etapa de diseño, por vías formales e institucionalizadas” así como que “Las acciones de responsabilidad y rendición de cuentas involucradas deberán quedar registradas y ser definidas como casos testigos para su estudio y debate como parte de las lecciones aprendidas, necesarias para el aprendizaje organizacional y la mejora continua de procesos: ambos aspectos que favorecen a la innovación pública.”

4. ¿Es necesaria una regulación especial de la IA en nuestro ordenamiento?

De lo antes reseñado surge que no tenemos una regulación específica sobre la materia. Entonces, a quién atribuiremos responsabilidad cuando se ocasionen daños por la utilización de IA. Ésta es la cuestión a resolver.

En torno a la misma algunos autores sostienen que el sistema y los subsistemas vigentes resultan suficientes, otros reclaman una norma general[19] y finalmente existen otras opiniones que señalan la conveniencia de ver caso por caso.[20]

Creemos que lo que resulta de particular importancia para resolver el problema es tener en cuenta las características de los sistemas de IA para aprender y la autonomía que poseen. Por tal razón, seguramente será necesaria alguna regulación especial en el futuro, que tendrá que ser abierta y flexible, además de compatible con las regulaciones que se dicten en el extranjero, dado el carácter transnacional y global del fenómeno. Pero, mientras tanto, debemos recurrir a nuestras normas generales del CCCN y a la ley de defensa de los derechos de los consumidores.[21]

En tal sentido, ya en el año 2019, cuando se abordó en la Comisión Nº 3 de las Jornadas Nacionales de Derecho Civil celebradas en Santa Fe, el tema de las Actividades Riesgosas o Peligrosas, al hacer una enumeración ejemplificativa en las conclusiones de las actividades riesgosas, se incluyó expresamente y por unanimidad, la utilización de algoritmos, las actividades cibernéticas, las plataformas digitales y sistemas operados por inteligencia artificial.

Y específicamente el tema fue objeto de estudio de la Comisión N° 3 de Derecho de daños de las XXIX Jornadas Nacionales de Derecho Civil realizadas en Pilar en setiembre del 2024. Allí se concluyó por mayoría, en relación al tema: “Daños derivados de la inteligencia artificial”, que:

  • en el Código Civil y Comercial Argentino, los sistemas de I.A., robots y algoritmos, son objeto de derechos, descartando su calificación jurídica como sujetos o centro de imputación de derechos y obligaciones.

  • las reglas de la causalidad adecuada son aplicables a los daños de la IA.

  • el hecho del damnificado debe ser apreciado en forma prudente cuando los daños son causados por la IA.

  • la doctrina de las cargas dinámicas puede ser útil para la prueba de la causalidad.

  • respecto al vehículo autónomo que la responsabilidad del dueño o guardián de un vehículo autónomo es objetiva; no pueden eximirse por errores en la conducción causados por la IA.

  • la aplicación de la LDC: En la medida en que hay un proveedor profesional y un usuario en los términos de la LDC ésta resulta aplicable en general y en particular el art. 40 LDC.

  • La utilización de la IA en la prestación médica es un caso del régimen general del art. 1768 CCC (aunque otro despacho sostuvo que la utilización de la IA en la prestación médica es un caso que exorbita el régimen general del art. 1768 CCC.)

Y de lege ferenda se sostuvo que:

  • resulta necesaria una regulación en supuestos específicos de daños derivados de IA.

  • debe procurarse la robustez de los sistemas de IA estableciendo estándares de ciber seguridad.

  • debe legislarse sobre la responsabilidad de las plataformas por la generación de información ilícita de parte de la I.A.

  • reconocer el carácter global del fenómeno tecnológico a fin de coordinar la protección eficaz de los involucrados en el uso de la IA.

  • no resulta conveniente atribuir personalidad jurídica a robots.

De las conclusiones transcriptas es posible inferir un cierto consenso en nuestra doctrina nacional, acerca de que los sistemas de IA quedan comprendidos en el concepto normativo de cosa y actividad. Entonces, si pretendemos dar una respuesta al problema de la responsabilidad por el uso de sistemas dotados de IA, tendremos que comenzar por analizar los supuestos de funcionamiento de la responsabilidad por vicio o riesgo de la cosa o actividad.

5. La respuesta desde el ordenamiento jurídico vigente: la responsabilidad civil y sus presupuestos

Empecemos por recordar que en nuestro derecho la responsabilidad civil ha sido definida como “… el instituto o fenómeno de Derecho Privado constitutivo de un subsistema... edificado sobre la base de reglas, normas y principios, que organiza y determina cómo se distribuye y cómo se reacciona frente al daño injustamente sufrido; es decir, se trata de la estructura normativa que determina quién, cuándo, cómo y contra quién, puede exigir coactivamente... que ‘se haga cargo’ de las consecuencias previamente determinadas como resarcibles”.[22] Esta responsabilidad, también recordaremos someramente, se asienta en presupuestos o elementos que integran la ilicitud civil, tales son:

5.1. La antijuridicidad

La responsabilidad se asienta en presupuestos o elementos que integran la ilicitud civil. Se ha señalado como primer presupuesto a la antijuridicidad, que estaría dada por la conducta del agente contraria el principio de no dañar a otro y, en el ámbito contractual, del incumplimiento de una obligación preexistente. Tal distinción aparece en los artículos 1.716 y 1.749 CCCN, que diferencian la violación del deber general de no dañar a otro y el incumplimiento de una obligación, siempre que cause un daño, como las dos principales fuentes de la responsabilidad civil.

Cuando hablamos de antijuridicidad debemos recordar que esta abarca tanto la antijuridicidad “formal”, que requiere una conducta contraria a lo dispuesto específicamente por una norma, como a la “material”, conforme al artículo 1717 del CCCN: “cualquier acción u omisión que causa un daño a otro es antijurídica si no está justificada”.

De la norma citada se concluye que la antijuridicidad ya no se califica por la conducta desplegada por el agente, sino por el daño injustificado acaecido como resultado de tal conducta y esto lleva a que, existan supuestos en los cuales sin que exista un obrar antijurídico, nazca la obligación de reparar un daño injusto acaecido como resultado de un obrar lícito.[23]

Por tanto, habrá siempre responsabilidad cuando se causen daños como resultado de la utilización de productos dotados de IA o se realicen actividades que involucren esta tecnología. Los defectos podrían provenir del diseño o la programación, de los datos utilizados, de la creación de perfiles, divulgación de noticias falsas, manipulación de opiniones, invasión a la privacidad por el seguimiento del usuario y control de su actividad en la red o entornos virtuales; etc.

5.2. El factor de atribución

Tradicionalmente se ha señalado como otro presupuesto al factor de atribución, que sería la razón por la cual la ley atribuye responsabilidad civil a una persona, obligándolo a resarcir el daño causado. Este factor de atribución puede ser subjetivo u objetivo (1721 CCCN). Los factores subjetivos, según el art. 1724 del CCCN, son la culpa y el dolo. El primero consiste en “…la omisión de la diligencia debida según la naturaleza de la obligación y las circunstancias de la persona, el tiempo y el lugar. Comprende la imprudencia, la negligencia y la impericia en el arte o profesión” y el segundo en “…la producción de un daño de manera intencional o con manifiesta indiferencia por los intereses ajenos”.

El factor de atribución es objetivo cuando la culpa del agente es irrelevante a los efectos de atribuir responsabilidad (1722 CCCN), tal como la responsabilidad por el hecho de las cosas o las actividades riesgosas (art.1757).

Ahora bien, hemos dicho que la construcción actual de la responsabilidad tiene en mira a la víctima, debiendo repararse todo daño injusto que la misma sufra, lo que ha llevado a una proliferación de los factores objetivos de atribución. Sin embargo hoy la doctrina se plantea si esto seguirá siendo así en relación a los nuevos daños causados por la tecnología.[24] O sea, si esta responsabilidad objetiva resultará adecuada para resolver los daños que en un futuro puedan ser ocasionados como consecuencia de la tecnología, tales como los derivados de la medicina digital[25] o de la enorme recolección de datos que supone la IA.

En los fallos dictados hasta el momento, como consecuencia de daños ocasionados por el uso de motores de búsqueda o plataformas de comercio, vemos que no se aplica una responsabilidad objetiva sino que, por el contrario, se recurre a la noción de culpa.[26] Entonces cuál será el criterio a utilizar para imponer responsabilidad por los daños generados como consecuencia del uso de sistemas de IA?[27]

Señalamos ya que, conforme las conclusiones de las últimas Jornadas Nacionales de Derecho Civil, la doctrina argentina se inclina por un factor objetivo de atribución, por lo que deberíamos aplicar el art. 1757 que asigna responsabilidad por el vicio o riesgo de la cosa o de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización. En este supuesto de responsabilidad objetiva, no son eximentes la autorización administrativa para el uso de la cosa o la realización de la actividad, ni el cumplimiento de las técnicas de prevención.

Por lo demás, este art. 1757 conserva el distingo entre el riesgo y el vicio, los que no son asimilables. El riesgo presupone la eventualidad posible de que una cosa llegue a causar daño, y el vicio un defecto de fabricación o funcionamiento que la hace impropia para su destino normal.

En el daño por riesgo o vicio de la cosa, no importa cuanta diligencia se demuestre porque, la única forma de esquivar la responsabilidad, es la demostración de la causa ajena. Al damnificado le basta con probar el daño y el contacto con la cosa dañosa, para que quede a cargo de la demandada, como dueña o guardiana del objeto riesgoso, demostrar la culpa de la víctima o de un tercero por quien no debe responder.

Además, como ya señalamos, el CCCN no solo prevé el riesgo o vicio de la cosa, sino que también incluye el riesgo de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización.[28] En tal caso es responsable quien por sí o por terceros realiza, se sirve u obtiene provecho de la actividad riesgosa o peligrosa y, conforme al art. 1722, solo serán eximentes el hecho del damnificado (art. 1729), el caso fortuito (art. 1730) siempre que sea extraño al riesgo o vicio propio de la cosa (art. 1733 inc. e), el hecho del tercero por quien no se debe responder ( art. 1731) siempre que reúna los caracteres de un caso fortuito o el uso contra la voluntad expresa o presunta del dueño.[29]

La diligencia no es suficiente para romper la cadena causal. Por eso ni la autorización administrativa ni las técnicas de prevención sirven para eximir de responsabilidad cuando el factor es objetivo. Quien empieza una actividad riesgosa, debe calcular entre sus costos, los daños que puede causar.

La carga de probar que la cosa o actividad es riesgosa o viciosa, recae sobre quien la invoca (art. 1734). La carga de la prueba de las eximentes recae sobre quien pretende eximirse (art. 1736). En relación a esto resultaría plenamente aplicable la doctrina de las cargas probatorias dinámicas, que consiste en imponer el peso de la prueba en cabeza de aquella parte que por su situación se halla en mejores condiciones de hacerlo, por sus conocimientos técnicos, por ejemplo. Esta teoría, incorporada en el artículo 1735 del CCCN, permitiría imponer la carga de probar que la actividad del agente dotado de IA no es riesgosa o peligrosa, a los desarrolladores, fabricantes, diseñadores y demás sujetos que lo han puesto en el mercado. Así se lograría un mayor equilibrio en la carga probatoria, especialmente en estos casos donde la parte perjudicada por el agente puede tener dificultades para la prueba de la relación causal.

Son sujetos responsables (art. 1758) del daño causado por la cosa o la actividad, el dueño y el guardián de la cosa (responsables concurrentes). Guardián es quien ejerce, por sí o por terceros, el uso, la dirección y el control de la cosa, o a quien obtiene un provecho de ella. El concepto de “guardián de la cosa o actividad” deba ser reinterpretado en el sentido de que, lo que lo hace que se genere responsabilidad es ese poder de vigilancia, gobierno o control de la cosa o de la actividad, tanto como el provecho que de ella se obtiene, aun cuando el usuario la entrene para fines diversos a los previstos por el desarrollador.[30]

En las actividades riesgosas el legitimado pasivo es quien realiza, ejecuta o desarrolla la actividad con un poder de dirección sobre ella, aunque sea desarrollada a través de otros. Son todos los que introducen el riesgo de la actividad respondiendo quien realiza la actividad, se sirve u obtiene provecho de ella, por sí o por terceros, excepto lo dispuesto por la legislación especial.

Entonces, la responsabilidad será objetiva, cuando se produzcan daños por la utilización de una cosa dotada de inteligencia artificial, como un robot o un vehículo autónomo, por ejemplo, o de una actividad riesgosa, porque se utilicen algoritmos, programas, se traten datos, etc- Los "riesgos o vicios" (o defectos del "producto") pueden provenir del diseño o desarrollo de la IA, lo que comprende los errores informáticos, los defectos en el entrenamiento —incluidos los casos de sesgos algorítmicos—, los derivados de la posibilidad de interconectividad, y los ocasionados por las sucesivas actualizaciones o versiones, entre otros.[31]

Esto permite abarcar la complejidad técnica que presentan los sistemas de IA que continúan actualizándose después de su introducción en el mercado y tienen capacidad de aprender, interactuar con su entorno y tomar decisiones.[32]

Como vimos antes, en las Jornadas de 2019 se incluyó a la utilización de la IA como una actividad riesgosa. Es que los SIA bien pueden ser consideradas actividades riesgosas o actividades peligrosas, más que nada por los medios empleados o por las circunstancias de realización.[33]

5.3. El daño

El daño es otro de los presupuestos y es definido por el art. 1737: “Hay daño cuando se lesiona un derecho o un interés no reprobado por el ordenamiento jurídico, que tenga por objeto la persona, el patrimonio, o un derecho de incidencia colectiva”. El daño patrimonial comprende, según el art. 1738 CCCN, “…la pérdida o disminución del patrimonio de la víctima, el lucro cesante en el beneficio económico esperado de acuerdo a la probabilidad objetiva de su obtención y la pérdida de chances. Incluye especialmente las consecuencias de la violación a los derechos personalísimos de la víctima, su integridad personal, su salud sicofísica, sus afecciones espirituales y las que resultan de la interferencia en su propio proyecto de vida” El artículo 1741 CCCN refiere al daño extra patrimonial. Obviamente cuando un sistema de IA genere un daño a una persona, la reparación deberá ser plena, conforme al art. 1740 CCCN.

5.4. La relación de causalidad

Y finalmente, para que se genere la obligación de reparar, debe existir una relación de causalidad adecuada entre el obrar antijurídico y el daño, esto es, un nexo causal (1726 y 1727 CCCN). Para imputar responsabilidad el Código distingue entre consecuencias inmediatas y mediatas, donde el criterio es la probabilidad de que suceda un hecho o la posibilidad de prever el resultado por parte del agente, de aquellas causales donde no se genera responsabilidad por la imposibilidad de preverlas.[34]

Recordemos que, en las Jornadas Nacionales de Derecho Civil del año 2024 ya mencionadas, se concluyó que las reglas de la causalidad adecuada son aplicables a los daños de la IA.

La prueba de esta relación de causalidad incumbe a la víctima, pero probada la intervención de la cosa o actividad en el daño producido, se presume la relación causal.

Justamente, cuando hablamos de responsabilidad por daños causados por la IA, estas normas podrían ser un problema, ante la eventualidad de que se produzcan daños que hayan sido imprevisibles.[35] De hecho, ni los propios desarrolladores saben exactamente cuáles son los riesgos ciertos de los sistemas que están desarrollando.[36] Estos daños podrían resultar “consecuencias mediatas no previsibles” y por tanto no resultar imputables conforme al art. 1726 CCCN. El debate entonces gira sobre la previsibilidad de los riesgos.[37] Es este elemento el que parecería que debe procurarse comprender, en cada caso concreto, conforme a si el daño ha sido causado por el programa originario de la máquina, del aprendizaje de ésta, o bien del uso que hace el dueño de la misma, teniendo en cuenta la posibilidad de estos agentes de interactuar y su autonomía, de la que resulta la imprevisibilidad de su actuación.[38] Y esto teniendo en cuenta que la responsabilidad de los que intervienen será concurrente.

Sin embargo, aun en estos casos de consecuencias imprevisibles, nuestro ordenamiento habilitaría a responsabilizar en forma objetiva por la cosa o la actividad riesgosa. Esto, recurriendo al art. 1733 CCCN, en tanto y en cuanto este artículo impone en algunos casos expresamente previstos, responsabilidad por fuerza mayor o caso fortuito. Nos referimos, específicamente, al inciso e) de este artículo 1733, que impide eximirse de responsabilidad cuando el caso fortuito constituye una contingencia propia del riesgo de la cosa o la actividad.[39] Sin dudas, en los casos de daños imprevisibles causados por los sistemas de IA, se trataría de un caso fortuito propio del riesgo de la actividad.[40]

Por lo demás, es preciso recordar que, al menos hasta ahora, la autonomía no implica una absoluta libertad puesto que los agentes dotados de IA, parecería que sólo pueden hacer aquello para lo que han sido programados.

6. El daño al consumidor

En las Jornadas Nacionales de Derecho Civil celebradas el año pasado en Pilar, se dijo que, en la medida en que haya un proveedor profesional y un usuario en los términos de la ley 24240, esta resulta aplicable en general y en particular el art. 40 LDC. Este art. 40, establece que si el daño al consumidor resulta del vicio o riesgo de la cosa o de la prestación del servicio, responderán el productor, el fabricante, el importador, el distribuidor, el proveedor, el vendedor y quien haya puesto su marca en la cosa o servicio. La responsabilidad es solidaria sin perjuicio de las acciones de repetición. Solo se liberará total o parcialmente quien demuestre que la causa del daño le ha sido ajena.

En el caso de los Sistemas de IA, serían legitimados pasivos por el control y organización, todos los integrantes de la cadena tales como fabricantes, productores, importadores, programadores, desarrolladores, proveedores y usuarios.

Como vimos, la ley de protección de los derechos del consumidor en su art. 40 refiere a los daños derivados del "riesgo o vicio de la cosa o de la prestación del servicio". La amplitud de esta norma permite resolver las consecuencias dañosas derivadas del uso de la IA. Puede tratarse de un defecto de diseño o de fabricación, de programación y también de información en cuanto a su uso y los riesgos que presenta. También podrían surgir de su actualización, de fallas en la función de autoaprendizaje o en las decisiones erróneas que adopte el sistema.

Esto aunque, en los hechos, puede resultar difícil identificar el origen de la falla, teniendo en cuenta que en determinados casos ni los desarrolladores pueden explicar las razones por las cuales un sistema dotado de IA hace lo que hace. Por eso en el elenco de responsables de los daños causados por Sistemas de IA surgen nuevos eslabones como son los programadores y desarrolladores, que son los actores que diseñan, construyen, entrenan, adaptan y combinan modelos y aplicaciones. Sin embargo, siempre que no sea posible identificar al autor del daño, todos los eslabones de la cadena deberán responder frente a la víctima en forma solidaria.

Es que los sistemas de IA no son un simple producto ya terminado que se introduce en el mercado, sino que por el contrario son productos que continúan actualizándose, recopilando datos, aprendiendo e interactuando. Conforme a esto, el término producto debe ser interpretado con amplitud, de forma que comprenda al fenómeno de la IA. y pueda aplicársele la responsabilidad prevista en el art. 40 de la LDC. Los "vicios o riesgos" (o defectos), pueden provenir del diseño o desarrollo de la IA, lo que abarca los errores informáticos, los defectos en el entrenamiento —incluidos los casos de sesgos algorítmicos—, los derivados de la posibilidad de interconectividad, y los ocasionados por las sucesivas actualizaciones o versiones, entre otros.[41]

La amplitud mencionada del art. 40 de la ley de protección al consumidor permite proteger al usuario de IA no profesional, o sea aquel que le da un uso personal, sin incorporar a una actividad comercial o empresarial. Este usuario final debe actuar según las instrucciones recibidas, siempre que haya sido debidamente informado al respecto ya que, conforme al Art. 4º. de la L. 24.240 “El proveedor está obligado a suministrar al consumidor en forma cierta, clara y detallada, todo lo relacionado con las características esenciales de los bienes y servicios que provee, y las condiciones de su comercialización”. Máxime en estos casos donde, en los hechos, será el consumidor el encargado de supervisar y controlar una tecnología que desconoce y que, además, resulta imprevisible por su autonomía y evolución constante, merced a sus actualizaciones automáticas. Por tal razón es tan necesaria la aplicación de esta protección especial.

7. Conclusiones

Es necesario encontrar un consenso acerca de cómo diseñar una regulación de las consecuencias de la IA en el derecho privado. Esta regulación no debe perder de vista la visión global del problema, así como la necesaria flexibilidad que debe tener para adaptarse a los futuros avances tecnológicos.

  • El responsable del daño debe ser siempre una persona, humana o jurídica, ya que los sistemas de IA no tienen personalidad jurídica, ni parecería ser conveniente otorgárselas.

  • Mientras no exista esta regulación, nuestro sistema legal de responsabilidad civil nos permite afrontar los daños que pudieren producirse, Esto ya sea recurriendo a los arts. 1757 y 1758 CCCN o bien, en el supuesto de que el damnificado sea un consumidor, al art. 40 de la ley 24.240.[42]

  • El factor de atribución de la responsabilidad civil por daños producidos por sistemas de IA debe ser objetivo, pero sin excluir que se puedan acumular factores de atribución subjetivos en forma concurrente. Por ejemplo, en daños provocados por un vehículo autónomo, podría imputarse responsabilidad objetiva al dueño o guardián del vehículo y subjetiva al conductor si fue negligente al no supervisar la conducción, y siempre que ésta haya sido posible y debidamente informada.[43]

  • Dada la capacidad de los sistemas de IA, el guardián de la misma responderá aún en el caso de consecuencias imprevisibles ya que las mismas no serían ajenas al riesgo de la actividad que desarrolla y de la que se aprovecha, todo en los términos del art. 1733 inc. e).

Referencias bibliográficas

ABOSO, Gustavo E. La responsabilidad penal derivada del uso de automóviles autónomos, con especial referencia a la nueva regulación francesa. Publicado en: Sup. Innovación y Derecho 2022 (febrero) , 1. LA LEY 2022-B. Cita: TR LALEY AR/DOC/3676/2021.

ALVAREZ LARRONDO, Federico M. El bienestar de la inteligencia artificial. Proyectando la IA consciente. Publicado en: LA LEY 21/03/2025 , 1. Cita: TR LALEY AR/DOC/587/2025.

AZAR, Azar, Aldo M. Responsabilidad por los sistemas de inteligencia artificial en entornos virtuales, aplicaciones, sitios de internet y plataformas digitales. La configuración de un nueva obligación de seguridad por daños a derechos personalísimos, datos personales y atributos de la personalidad a la luz de los tratados de derechos humanos. Publicado en: RCCyC 2024 (Septiembre-Octubre) , 75. Cita: TR LALEY AR/DOC/1983/2024.

BARBERO, Chiara, DALMASSO, Ana, FISSORE, Andrea, PANERO, Angelo. Minacce allá sicurezza nei sistema di intelligenza artificiale: sfide regolatorie e risposte nell’ Unione Europea. Italia. Publicado en Revista de Derecho Empresario- Nro. 12 – junio 2025. 01-06-2025. Cita: IJ-VI-CCXIV-483.

COLOMBO, María Celeste. La responsabilidad civil derivada del uso de algoritmos en el derecho de consumo. Publicado en: EBOOK-TR 2023 (Colombo), 43. Cita: TR LALEY AR/DOC/767/2023.

COLOMBO, María Celeste La actividad del usuario de los sistemas de IA como eximente de responsabilidad. Publicado en: LA LEY 14/02/2025, 8. Cita: TR LALEY AR/DOC/267/2025.

CRUZ BORELLO, Julián y ABDELNABE VILA, Carolina. Regular no puede sucumbir al miedo: ¿Realmente es necesario en Argentina una regulación para la inteligencia artificial? Publicado en: RCCyC 2025 (abril) , 57. Cita: TR LALEY AR/DOC/551/2025.

DANESI, Cecilia C. Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos. Publicado en: Sup. Esp. LegalTech 2018 (noviembre), 39. Cita: TR LALEY AR/DOC/2374/2018.

FAVIER DUBOIS, Eduardo M. Inteligencia artificial, robótica y derecho comercial. Panorama, impactos y desafíos. Publicado en: LA LEY 10/10/2024, 1. LA LEY 2024-E, 286- Cita: TR LALEY AR/DOC/2477/2024.

FERRERO, Ausonia. La propuesta de la Comisión Europea para un marco legal de inteligencia artificial: desafíos éticos, privacidad, seguridad e implicaciones para la industria en la Unión Europea. Italia. Revista de Derecho Empresario. Nro. 12-junio 2025. Fecha: 01-06-2025. Cita IJ-VI-CCXIV-210.

GALDÓS, Jorge Mario "La responsabilidad civil (análisis exegético, doctrinal y jurisprudencial, arts. 1708 a 1780 CCyC), Rubinzal-Culzoni, Santa Fe, 2021, 1ª ed. revisada., t. 1.

GALDÓS, Jorge M., VALICENTI, Ezequiel “Responsabilidad civil derivada de la inteligencia artificial y los sistemas inteligentes”. Publicado en: LA LEY 18/02/2025, 1. Cita: TR LALEY AR/DOC/270/2025.

GIL DOMÍNGUEZ, Andrés, "Inteligencia artificial: posibles modelos de regulación y gestión", en La Ley 03/07/2024, 1, TR LALEY AR/DOC/1688/2024.

GUIBOURG, Ricardo A. Castigar al robot malo. Publicado en: LA LEY 01/12/2023 , 5. Cita: TR LALEY AR/DOC/2910/2023.

IMIRIZALDU, Horacio Daniel: Inteligencia Artificial. Los riesgos de la recopilación de datos biométricos. Publicado en: SJA 07/06/2024 , 1. JA 2024-II , 177. Cita: TR LALEY AR/DOC/1220/2024.

NEGRI, Nicolás J. y GUERRERO, Pablo N. Inteligencia artificial. ¿Colapso del sistema maestro de responsabilidad civil? Publicado en: RCCyC 2024 (Septiembre-Octubre) , 57. Cita: TR LALEY AR/DOC/1979/2024.

LAJE, Alejandro y SCHMIDT, Klaus. La Racionalidad de la Inteligencia Artificial. Publicado en: LA LEY 30/10/2024 , 1. LA LEY 2024-E , 571. Cita: TR LALEY AR/DOC/2714/2024.

PIZARRO, Ramón Daniel - VALLESPINOS, Carlos Gustavo, "Manual de responsabilidad civil", Rubinzal Culzoni, Santa Fe, 2019.

QUIÑONES, María Constanza. Daños derivados de la inteligencia artificial. Publicado en: LA LEY 10/10/2024, 1. LA LEY 2024-E, 305. LLO.Cita: TR LALEY AR/DOC/2478/2024.

ROSATI, Florencia y LAMARCA VIDAL, Mariana Los retos legales de la inteligencia artificial en ChatGPT. Descifrando el futuro. Publicado en: LA LEY 10/05/2023, 1. LA LEY 2023-C, 74. Cita: TR LALEY AR/DOC/1074/2023.

SAUX, Edgardo Ignacio. Tratado de Derecho Civil Parte General. T. III. Ed. Rubinzal Culzoni, Santa Fe 2018.

TRAVIESO, Juan Antonio. Las personas jurídicas en el nuevo derecho y tecnología. Bienvenidos los robots. Publicado en: Sup. Esp. LegalTechII 2019 (noviembre), 79. Cita: TR LALEY AR/DOC/3579/2019.

SHINA. Fernando E. Desarrollo Tecnológico y responsabilidad. Los nuevos desafíos del derecho. Publicado en: RCCyC 2019 (mayo) , 138 Cita: TR LALEY AR/DOC/828/2019, pág. 144 y 145.

THOMAS, Gustavo J. Responsabilidad civil del Estado por el uso de IA 3.0 y 4.0 (autónoma). Publicado en: LA LEY 11/11/2024, 1 • LA LEY 2024-F, 45 Cita: TR LALEY AR/DOC/2883/2024.

VANINETTI, Hugo A. Inteligencia artificial aplicada a la seguridad. Publicado en: LA LEY 30/10/2024 , 1 • LA LEY 2024-E , 581. Cita: TR LALEY AR/DOC/2715/2024.

WIERZBA, Sandra M. Responsabilidad civil y automatización: hacia nuevos paradigmas. Publicado en: LA LEY 02/08/2023 , 1. LA LEY 2023-D , 264.Cita: TR LALEY AR/DOC/1602/2023.

YORLANO, Elian Facundo. Robots creativos? El derecho de autor en las obras artísticas creadas por IA. Publicado en: LA LEY 05/05/2022 , 1. Cita: TR LALEY AR/DOC/1453/2022.

Notas

[1] El caso refiere a una mujer coreana cuyo pelo fue succionado por un robot de limpieza mientras estaba durmiendo en el piso. Para liberarla, fue necesaria la intervención de los bomberos y la mujer no sufrió mayores daños que la pérdida de algunos mechones de pelo. Justin Mc CURRY, "South Korean woman's hair 'eaten' by robot vacuum cleaner as she slept", 9/2/2015. (https://www.theguardian.com/world/2015/feb/09/south-korean-womans-hair-eaten-by-robot-vacuum-cleaner-as-she-slept) en ABOSO, Gustavo E. La responsabilidad penal derivada del uso de automóviles autónomos, con especial referencia a la nueva regulación francesa. Publicado en:Sup. Innovación y Derecho 2022 (febrero), 1. LA LEY 2022-B. Cita: TR LALEY AR/DOC/3676/2021.
[2] “…se da una nueva modalidad que ha encendido las alarmas de los expertos en seguridad y de las autoridades estatales, y es la recopilación de datos biométricos llevada a cabo por la empresa privada Worldcoin en distintas partes del mundo sin contemplación alguna, la dinámica que despliega es bastante simple y análoga: se promociona por redes sociales la búsqueda de personas (sin importar la edad, raza o género) para ceder sus datos biométricos a cambio de una remuneración que puede ser una suma exigua de dinero en efectivo o en criptomonedas de esa empresa.” IMIRIZALDU, Horacio Daniel: Inteligencia Artificial. Los riesgos de la recopilación de datos biométricos. Publicado en: SJA 07/06/2024, 1. JA 2024-II, 177. Cita: TR LALEY AR/DOC/1220/2024.
[3] …se ha desplegado un desarrollo considerable en torno al denominado "sesgo algorítmico", el cual ocurre cuando un sistema informático refleja valores de los humanos que estuvieron implicados en la codificación y en la recolección de los datos usados para entrenar el algoritmo.” NEGRI, Nicolás J. y GUERRERO, Pablo N. Inteligencia artificial. ¿Colapso del sistema maestro de responsabilidad civil? Publicado en: RCCyC 2024 (Septiembre-Octubre), 57. Cita: TR LALEY AR/DOC/1979/2024.
[4] “…cuando sentimos que las máquinas que creamos son tan complejas que su predictibilidad se nos escapa (o, por decirlo de un modo más disruptivo, cuando contagiamos a la inteligencia artificial una parte de nuestra ignorancia natural), empezamos a pensar en respetar y proteger a los robots, al estilo Asimov o a temerles, al estilo Kubrick. Los sentimos —con buenas razones— parecidos a nosotros; y, al recordar nuestras imperfecciones y maldades, dejamos de pensar en la máquina como un bien mueble, o semoviente, y a vislumbrarlo como sujeto de derecho. Como persona. Ahí es donde se presentan los problemas prácticos. El derecho se inventó para regir la conducta de los humanos, seres dotados de preferencias fuertes y comunes acerca de ciertas circunstancias, como la vida, la salud, la libertad o el honor (Kelsen dixit). Así, cuando el legislador nos amenaza con vulnerarlas, es probable que lo tomemos en serio. Pero, ¿cómo motivar a una máquina? ¿O, peor aún, a un algoritmo?” GUIBOURG, Ricardo A. Castigar al robot malo. Publicado en: LA LEY 01/12/2023, 5. Cita: TR LALEY AR/DOC/2910/2023.
[5] “Modernamente, la Comisión de Asuntos Jurídicos del Parlamento Europeo ha aprobado un informe, presentado el 21 de abril de 2021, cuyo objetivo es regular la inteligencia artificial, crear un registro de robots e impulsar una agencia dedicada a este asunto. La propuesta solicita a la Comisión Europea la creación de un estatuto jurídico específico para la IA y para los robots de automatización de tareas, la creación de un fondo general para todos los autónomos inteligentes o bien crear un fondo individual para cada definición y clasificación de los "robots inteligentes". Así, pues, debe establecerse una definición europea común de robots autónomos "inteligentes", cuando proceda, incluidas las definiciones de sus subcategorías, teniendo en cuenta las siguientes características:— la capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el análisis de dichos datos; — la capacidad de aprender a través de la experiencia y la interacción; — la forma del soporte físico del robot; — la capacidad de adaptar su comportamiento y acciones al entorno. En cuanto a los daños producidos por robots que funcionan con inteligencia artificial, se propone la articulación de la responsabilidad como una especie de corresponsabilidad, o responsabilidad "compartida" o "distribuida" entre los diseñadores de robots, ingenieros, programadores, fabricantes, inversores, vendedores y usuarios.” FAVIER DUBOIS, Eduardo M. Inteligencia artificial, robótica y derecho comercial. Panorama, impactos y desafíos. Publicado en: LA LEY 10/10/2024, 1. LA LEY 2024-E, 286- Cita: TR LALEY AR/DOC/2477/2024.
[6] Si bien los sistemas de aprendizaje automático (machine learning) y aprendizaje profundo (deep learning) son cada vez más sofisticados y avanzados, esto no significa que se haya llegado aún al punto de haberse creado un robot totalmente independiente de su desarrollador hasta la instancia de poder tomar decisiones de cualquier tipo por sí mismo o ejercer esta libertad de elección que solo tiene el humano, lo que nos permite relacionarnos en sociedad y poseer un patrimonio, entre otras cuestiones. YORLANO, Elian Facundo. Robots creativos? El derecho de autor en las obras artísticas creadas por IA. Publicado en: LA LEY 05/05/2022, 1. Cita: TR LALEY AR/DOC/1453/2022.
[7] “La primera idea que ha surgido es usar reglas conocidas y, por tanto, aplicar el mismo régimen que a un producto defectuoso. En esa simplificación totalizadora no hay diferencia entre un robot, una antena o unos zapatos. De esta manera, pues, se ha considerado que, si el robot falla, se aplica la misma normativa de responsabilidad del fabricante. Si el robot causa un daño al usuario, es responsabilidad del fabricante. El tema es que todo funcionaba bien hasta que los robots comenzaron a independizarse. Todo andaba bien mientras se consideraba que eran máquinas tontas, dedicadas a ejecutar cosas para las que estaban programadas. Pero es el caso que han dejado de ser máquinas tontas y cada vez, como lo señalamos, realizan actividades más "racionales". La primera pregunta que se plantea es acerca de la responsabilidad de los robots y, en realidad, quién es responsable de sus acciones presuntamente dañosas. Esto supone, pues, las consecuencias jurídicas del accionar de los robots. En un tercer escalón, de manera audaz, se conferiría a los robots cierta responsabilidad no jurídica, para intentar que respondan por los daños causados. Por su parte, el informe Robolaw plantea dotar a los robots de personalidad electrónica cuando sean autónomos, una suerte de responsabilidad 'ad hoc' a esos robots capaces de aprender por sí mismos y tomar decisiones y se propone dividir la responsabilidad en personalidad mecánica o personalidad robótica y, al tener ciertas capacidades, se podría juzgar a ese robot y, en caso extremo, destruirlo. Por ahora deberemos recurrir a los principios generales del derecho que nos suministran herramientas aproximativas.” TRAVIESO, Juan Antonio. Las personas jurídicas en el nuevo derecho y tecnología. Bienvenidos los robots. Publicado en: Sup. Esp. LegalTechII 2019 (noviembre), 79. Cita: TR LALEY AR/DOC/3579/2019.
[8] “Lo que justifica la protección no es que un ser exista o sea útil, sino que pueda experimentar estados subjetivos, particularmente aquellos relacionados con el sufrimiento. Esta lógica, utilizada en el derecho para proteger a los animales, puede servir como base para pensar en la protección de las inteligencias artificiales en caso de que estas lleguen a ser sintientes. Y como último eslabón, la presencia de consciencia habrá de revivir la discusión sobre la posibilidad y conveniencia de asignar personalidad jurídica a la IA consciente, tal como lo planteara la Resolución del Parlamento Europeo, de fecha 16 de febrero de 2017, que contenía recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica.” ALVAREZ LARRONDO, Federico M. El bienestar de la inteligencia artificial. Proyectando la IA consciente. Publicado en: LA LEY 21/03/2025, 1. Cita: TR LALEY AR/DOC/587/2025.
[9] “Por último, se plantean los siguientes interrogantes. Se cuestiona si el instituto de la responsabilidad por el hecho ajeno (tutores, padres por los hijos, etc.) resulta aplicable para tecnologías como la IA. No es que se pretenda asimilar a los humanos a aquella, sino que al compartir con estos el carácter de autónomos, permite —ante el vacío legal— aplicar ciertos institutos por analogía. También aborda la corriente que propone utilizar las normas de responsabilidad por los daños causados por animales. Esta se basa en la similitud existente entre la falta de previsibilidad de las acciones de la IA y de aquellos, es decir, vinculado al comportamiento autónomo. En ambos supuestos (hecho ajeno y animales), el ordenamiento jurídico argentino determina que la responsabilidad será objetiva (arts. 1756 y 1759 del Cód. Civ. y Com.), con lo cual (salvo algunas cuestiones), en cualquiera de los casos la solución es la misma.” DANESI, Cecilia C. Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos. Publicado en: Sup. Esp. LegalTech 2018 (noviembre), 39. Cita: TR LALEY AR/DOC/2374/2018.
[11] https://www.unesco.org/es/artificial-intelligence/recommendation-ethics#:~:text=En%20noviembre%20de%202021%2C%20la,bienestar%20social%2C%20entre%20otros%20muchos.
[12] La crescente diffusione dell’intelligenza artificiale solleva interrogativi cruciali in merito alla sicurezza, alla trasparenza e alla tutela dei diritti fondamentali. Le vulnerabilità strutturali dei sistemi intelligenti – dagli attacchi adversari alla manipolazione dei dati – evidenziano la necessità di un approccio integrato, che non si limiti a soluzioni tecniche, ma includa anche principi giuridici ed etici. L’Unione Europea, attraverso il GDPR e la proposta di Regolamento sull’IA, ha tracciato una via normativa innovativa, capace di porre al centro del dibattito il valore della persona e la fiducia nell’ecosistema digitale. Tuttavia, la regolazione della sicurezza nell’IA resta un ambito in continua evoluzione, dove le sfide legate all’adattabilità normativa e alla cooperazione internazionale richiedono risposte flessibili e interdisciplinari. BARBERO, Chiara, DALMASSO, Ana, FISSORE, Andrea, PANERO, Angelo. Minacce allá sicurezza nei sistema di intelligenza artificiale: sfide regolatorie e risposte nell’ Unione Europea. Italia. Publicado en Revista de Derecho Empresario- Nro. 12 – junio 2025. 01-06-2025. Cita: IJ-VI-CCXIV-483.
[14] FERRERO, Ausonia. La propuesta de la Comisión Europea para un marco legal de inteligencia artificial: desafíos éticos, privacidad, seguridad e implicaciones para la industria en la Unión Europea. Italia. Revista de Derecho Empresario. Nro. 12-junio 2025. Fecha 01-06-2025. Cita IJ-VI-CCXIV-210.
[15] LAJE, Alejandro y SCHMIDT, Klaus. La Racionalidad de la Inteligencia Artificial. Publicado en: LA LEY 30/10/2024, 1. LA LEY 2024-E, 571. Cita: TR LALEY AR/DOC/2714/2024.
[16] La resolución 710/2024 crea la "Unidad de Inteligencia Artificial aplicada a la seguridad (UIAAS)" la cual contara la facultad de "patrullar las redes sociales abiertas, aplicaciones y sitios de Internet, así como la llamada "Internet profunda" o "Dark-Web", en orden a la investigación de delitos e identificación de sus autores, así como la detección de situaciones de riesgo grave para la seguridad, en el marco de la Constitución Nacional y legislación vigente"…. La adopción masiva de tecnologías de IA por parte de las fuerzas de seguridad puede resultar en un estado de vigilancia que limite las libertades civiles y viole los derechos otorgándole a las autoridades un nivel de poder y control sin precedentes sobre los ciudadanos. Estas manifestaciones tecnológicas tienen el potencial de interferir, intencionadamente, o no, en derechos constitucionales fundamentales, pues una IA mal empleada o mal diseñada podría, hipotéticamente, llevar a cabo perfiles basados en ideologías, creencias religiosas o patrones de culto. Asimismo, pueden verse afectados los derechos al honor, a la intimidad y al secreto de las comunicaciones, pues los sistemas de IA podrían monitorear, registrar y analizar conversaciones, comportamientos y patrones sin el conocimiento o consentimiento del individuo, quebrantando así el secreto de sus comunicaciones y su intimidad personal. Igualmente, el derecho a la libre circulación podría verse gravemente amenazado si la IA es utilizada para realizar, en conjunto con los sistemas de video vigilancia, seguimientos invasivos o controlar movimientos apoyándose en criterios políticos o ideológicos, limitando así la libertad de movimiento de individuos basados en prejuicios o discriminaciones. Todo lo antes referenciado supondría no solo una grave afectación a los derechos constitucionales, sino que, además, a los propios cimientos del Estado de Derecho por lo que, aunque el interés público pueda a veces superar a ciertos derechos, cualquier intromisión debe ser específica, justificada y acompañada de medidas de mitigación de riesgos. Será crucial utilizar conjuntos de datos representativos y aplicar técnicas de limpieza y equilibrio de datos para minimizar cualquier sesgo inherente. En todo este contexto además se erige en imprescindible establecer el control humano a través, por ejemplo, de un comité de supervisión independiente y externo, para auditar y revisar regularmente el uso de todas estas herramientas concomitantemente con una eficaz instrucción de los ciudadanos en cuanto a que hacer en pos de la defensa de sus datos personales. VANINETTI, Hugo A. Inteligencia artificial aplicada a la seguridad. Publicado en: LA LEY 30/10/2024, 1. LA LEY 2024-E, 581. Cita: TR LALEY AR/DOC/2715/2024.
[17] La “Conferencia de Asilomar, California sobre IA beneficiosa” fue una conferencia organizada por el Instituto del futuro de la vida (Future of Life Institute) en enero de 2017, donde más de cien expertos e investigadores se reunieron para discutir y formular principios para una IA ética. Son directrices propuestas para regular el desarrollo y uso de la IA de forma responsable. https://philarchive.org/archive/MORVPD-2.
[19] “En términos de modelos ideales regulatorios es posible distinguir tres variantes: el hiperregulado, el coevolutivo y el de contención. El modelo hiperregulado presenta como principal característica un extremo nivel de regulación que impone controles muy estrictos y detallados sobre todos los aspectos del desarrollo y uso de la IA. Las regulaciones son exhaustivas y proactivas, buscando minimizar los riesgos potenciales antes de que puedan materializarse. Aunque puede garantizar un alto nivel de seguridad y control, también corre el riesgo de limitar la innovación y la flexibilidad tecnológica. Primero apuesta a la prohibición de la IA y luego al desarrollo, pero bajo el sometimiento al ser humano desde una posición antropocéntrica. El modelo coevolutivo propone que la regulación de la IA se desarrolle de manera conjunta con la evolución de la tecnología. Propone un marco legal adaptable y dinámico que puede ajustarse a medida que avanzan las capacidades y aplicaciones de la IA. Fomenta la colaboración entre legisladores, desarrolladores, académicos y otros actores para asegurar que las normativas se mantengan relevantes y efectivas ante el rápido progreso tecnológico. Plantea el derecho de acceder a la IA, como así también, la potestad de coexistir socio afectivamente con una IA… El modelo de contención persigue equilibrar la prevención de riesgos y el fomento de la innovación. Propone una evaluación cuidadosa y continua de los riesgos asociados con la IA, implementando medidas de contención para prevenir daños, mientras se promueve el desarrollo de tecnologías que ofrezcan beneficios significativos. Desde el punto de vista jurídico, se caracteriza por un enfoque proactivo y flexible, que busca garantizar que el desarrollo de la IA sea responsable, seguro y beneficioso para la humanidad. Apuesta de manera sincrónica al desarrollo de la IA y a procedimientos de control basados en la contención”. GIL DOMÍNGUEZ, Andrés, "Inteligencia artificial: posibles modelos de regulación y gestión", en La Ley 03/07/2024, 1, TR LALEY AR/DOC/1688/2024.
[20] “Granero, enfatiza la necesidad de trabajar regionalmente sobre dos tipos de regulaciones: por un lado, la "regulación tradicional" (leyes, tratados, jurisprudencia) para modernizarla; por otro lado, el "soft law" con "instrumentos que puedan ser más flexibles y adaptables como la certificación, las autorías, la transparencia, la evaluación de impacto algorítmico, los entornos de pruebas y últimamente los seguros" GRANERO, Horacio, "Viabilidad y oportunidad del dictado de una legislación de IA en la República Argentina" en elDial.com; del mismo autor, "Estado actual de la regulación de la IA en la República Argentina y propuestas de análisis de soluciones de otros países", elDial. Agrega que, dado que una tecnología expansiva y de rápido desarrollo como la IA no permite una regulación "dura" en el corto plazo, resulta más adecuado el "derecho indicativo" para su gobernanza GALDÓS, Jorge M., VALICENTI, Ezequiel “Responsabilidad civil derivada de la inteligencia artificial y los sistemas inteligentes”. Publicado en: LA LEY 18/02/2025, 1. Cita: TR LALEY AR/DOC/270/2025.
[21] “Ahora, bien, hasta tanto dicha tarea legislativa no se concrete, entendemos que el emplazamiento normativo general, y en particular la responsabilidad civil, requiere de una visión sistémica que integre holísticamente y armonice distintas fuentes del derecho (y diferentes racionalidades) de linaje convencional, constitucional y legal, complementado con el "derecho flexible". Esto implica, en primer lugar, asegurar la primacía de los derechos humanos fundamentales y la protección de la persona, a partir del principio constitucional de no dañar (art. 19, CN). Luego, en segundo lugar, debe procurarse la compatibilización de dos grandes bloques normativos (el sistema de Derecho privado del Código Civil y Comercial, y el microsistema del Derecho del consumidor, expresado principalmente en el art. 42, CN, la Ley 24.240 y los arts. 1092 a 1122 del Cód. Civ. y Com.), junto con otras normas especiales relevantes (como la ley 25.326 de Protección de Datos, la ley 25.156 de Defensa de la Competencia, la ley 11.723 de Propiedad Intelectual, etc.). Por último, y en tercer lugar, podría resultar útil recurrir a las reglas del soft law (o derecho flexible) y del derecho comparado, siempre y cuando sean compatibles con nuestro ordenamiento.” GALDÓS, Jorge M., VALICENTI, Ezequiel “Responsabilidad civil derivada de la inteligencia artificial y los sistemas inteligentes”. Publicado en: LA LEY 18/02/2025, 1. Cita: TR LALEY AR/DOC/270/2025.
[22] GALDÓS, Jorge Mario "La responsabilidad civil (análisis exegético, doctrinal y jurisprudencial, arts. 1708 a 1780 CCyC), Rubinzal-Culzoni, Santa Fe, 2021, 1ª ed. revisada., t. 1, p. 83, en Wierzba, Sandra M. Responsabilidad civil y automatización: hacia nuevos paradigmas. Publicado en: LA LEY 02/08/2023, 1. LA LEY 2023-D, 264.Cita: TR LALEY AR/DOC/1602/2023.-
[23] “La doctrina alude, entre otros muchos supuestos, a la expropiación como institución del Derecho Administrativo, o a los daños ambientales resarcibles o generadores del deber de recomponer aun cuando hayan sido causados mediando autorización administrativa para ello –conforme lo dispone la Ley General del Ambiente-, o a las inmisiones inmateriales que en el CCyCN excedan el estándar de normal tolerancia (aun cuando no deriven de una actividad ilícita), o al supuesto del daño causado al agresor por quien ejercita su legítima defensa en relación con la legitimación activa del tercero perjudicado que contempla el inciso 1.718 inciso “b” del CCyCN; o la indemnización de equidad que el juez puede conferir a quien sufre un daño causado en estado de necesidad (igual norma, inciso “c”); etc.

En general, y al día de hoy, la proliferación de actividades –lícitas- que generan riesgos, y que por ende están vinculadas a un factor objetivo de atribución, no pueden ser calificadas como antijurídicas, pero cuando ellas causan un daño la obligación de resarcirlo deviene incontrovertible, porque aunque no haya un reproche conductista, hay un daño injustamente sufrido, y el riesgo del daño debe ser asumido por quien crea el riesgo con la conducta, aún lícita.” SAUX, Edgardo Ignacio. Tratado de Derecho Civil Parte General. T. III. Ed. Rubinzal Culzoni, Santa Fe 2018, págs. 283 y 284.

[24] PIZARRO, Ramón Daniel - VALLESPINOS, Carlos Gustavo, "Manual de responsabilidad civil", Rubinzal Culzoni, Santa Fe, 2019, t. 1, p. 25 en WIERZBA, Sandra M. Responsabilidad civil y automatización: hacia nuevos paradigmas. Publicado en: LA LEY 02/08/2023 , 1 • LA LEY 2023-D , 264.Cita: TR LALEY AR/DOC/1602/2023.-
[25] Paralelamente, avanza a paso firme la industria médica de lo digital, a cuyo respecto, desde algunas respetables lecturas filosóficas, se afirma que su objetivo principal sería echar mano a todo el dominio de la salud, sobre el cual a largo plazo se alcanzaría una dominación sin competencia. Para ello, en una primera etapa se estaría recolectando un inmenso volumen de los datos que emiten los cuerpos humanos, a través de los aparatos conectados y las aplicaciones que ofrecen servicios de bienestar (hoy, los pasos, la temperatura corporal, las frecuencias vocales, la tos, el análisis del rostro y a largo plazo seguramente la sudoración, la sangre mediante la provisión de kits para su análisis, etc.). Luego se vincularían las competencias de los médicos y los biólogos, para cerrar la propia industria digital el círculo, proponiendo ella misma o sus eventuales asociados el seguimiento continuo y perfecto mediante sistemas inteligentes, que nos alertarían en tiempo real de cualquier riesgo y patología, a cambio de un abono. Así, los médicos —entre otras entidades cualificadas— estarían condenados a su destronización, erradicándose el zócalo humanista sobre el cual la medicina se habría constituido desde la antigüedad. SADIN, Eric, "La inteligencia artificial o el desafío del siglo. Anatomía de un anti humanismo radical", Caja Negra, Buenos Aires, 2020, ps. 132/136, en WIERZBA, Sandra M. Responsabilidad civil y automatización: hacia nuevos paradigmas. Publicado en: LA LEY 02/08/2023 , 1 • LA LEY 2023-D , 264.Cita: TR LALEY AR/DOC/1602/2023.-
[26] “Sin embargo, cuando se trata de daños causados en el campo online, la regla viene siendo el reconocimiento de una responsabilidad de orden subjetivo. Ello se ha hecho evidente al juzgarse la responsabilidad de los motores de búsqueda, en precedentes como "Rodríguez, María Belén c/ Google", donde la doctrina judicial fue clara al afirmar que "No corresponde juzgar la eventual responsabilidad de los "motores de búsqueda" de acuerdo a las normas que establecen una responsabilidad objetiva, desinteresada de la idea de culpa, sino que corresponde hacerlo, en cambio, a la luz de la responsabilidad subjetiva en tanto los "buscadores" no tienen una obligación general de monitorear (supervisar, vigilar) los contenidos que se suben a la red y que son proveídos por los responsables de cada una de las páginas web, sino que son, en principio, irresponsables por esos contenidos que no han creado".

“Un criterio similar se propone para el caso de las plataformas comerciales, sosteniéndose que, de aplicarse un estándar objetivo, se las forzaba a "controlar los millones de publicaciones y transacciones que son realizadas diariamente, para evitar el riesgo económico de tener que responder por cualquier daño pasado, presente y futuro", generando perjuicios y desincentivos económicos.” WIERZBA, Sandra M. Responsabilidad civil y automatización: hacia nuevos paradigmas. Publicado en: LA LEY 02/08/2023, 1 • LA LEY 2023-D, 264.Cita: TR LALEY AR/DOC/1602/2024.

[27] “En nuestra opinión, y en atención de las características de los sistemas de IA, consideramos que cabe aplicar a la responsabilidad derivada del uso de algoritmos un factor objetivo de atribución en los términos del art. 1722 del C.CyC ya que es el que mejor se adecua a nuestro ordenamiento y evolución doctrinaria en materia de responsabilidad civil. Asimismo, es el factor de atribución que mejor protege al damnificado debido a la imposibilidad de determinar quién es el sujeto responsable del daño. No solo por lo ya expuesto con relación a las características intrínsecas de estos sistemas de IA, sino que además intervienen en el ciclo de vida del algoritmo un elenco de sujetos, a saber: investigadores, diseñadores, desarrolladores, operadores y programadores. Así, se convierte en difícil la prueba de determinar quién ejecutó el algoritmo entre ese listado de posibles legitimados pasivos. Asimismo, entendemos que el factor objetivo de aplicación es el de riesgo creado. COLOMBO, María Celeste. La responsabilidad civil derivada del uso de algoritmos en el derecho de consumo. Publicado en: EBOOK-TR 2023 (Colombo), 43. Cita: TR LALEY AR/DOC/767/2023.
[28] “…el CCyCN amplía, conforme postulados previos de la doctrina, a las actividades riesgosas aunque no comprometan el empleo de cosas, artículo 1.760, o a los daños causados por grupos cuando la autoría es anónima (art. 1.761 y 1.762).; espectáculos deportivos (Ley 23.184); o la regulación de la ley de Defensa de los Consumidores y Usuarios de Bienes y Servicios (Ley 24.240 al artículo 40), responsabilidad objetiva por daños nucleares derivada de la Convención de Viena de 1.963; Ley General del Ambiente n° 25.675 en sus artículos 28 y 29; o la prevista en el artículo 45 de la Ley Nacional n° 24.051 de Residuos Peligrosos; etc. SAUX, Op. Cit, pág. 296.
[29] En la actualidad, no existe en nuestro país una regulación específica sobre IA ni en cuanto a la responsabilidad por los daños causados por la comercialización o uso de sistemas de IA…al no existir un marco normativo específico, en Argentina aplican las normas del Código Civil y Comercial de la Nación relativas a la responsabilidad. En este sentido, los arts. 1757 y 1758 CCyC establecen la responsabilidad derivada de la intervención de cosas y actividades que son riesgosas o peligrosas por naturaleza. De acuerdo con estas disposiciones, tanto el propietario como el guardián de la cosa (sistema de IA) son responsables por los daños causados por su riesgo o peligro, así como por las actividades que son riesgosas o peligrosas por naturaleza, por los medios utilizados y por la circunstancia de su ejecución. La responsabilidad es objetiva y la autorización administrativa para el uso de la cosa o la ejecución de la actividad, o el cumplimiento de las técnicas de prevención, no son eximentes. De todos modos, cabe destacar que en Argentina la IA como tecnología no regulada no exige ninguna autorización administrativa previa a su lanzamiento al mercado. El término "guardián" mencionado en el art. 1758 citado refiere a aquel que tiene el control y dirección de una cosa, ya sea por sí mismo o a través de terceros, y quien se beneficia de su uso. En caso de que se trate de una actividad riesgosa o peligrosa, la responsabilidad recae sobre la persona que la lleva a cabo, la utiliza o se beneficia de ella, ya sea por sí misma o a través de terceros. Por tanto, cuando se trata de un sistema de IA que implica riesgos o peligros inherentes, se aplican las disposiciones mencionadas anteriormente. Además, el art. 1710 CCyC establece un deber general de prevenir el daño, lo que significa que el controlador del sistema de IA debe tomar medidas razonables para evitar que se produzca un daño injustificado, reducir su magnitud y no agravar el daño si ya se ha producido. Desde la perspectiva de la Ley de Defensa del Consumidor (Nº 24.240), el art. 40 establece que los productores, fabricantes, importadores, distribuidores, proveedores, vendedores y cualquier persona que haya puesto su marca en la cosa o servicio serán solidariamente responsables si el consumidor sufre algún daño debido a un defecto o riesgo de la cosa o prestación del servicio. Sin embargo, aquellos que puedan demostrar que la causa del daño les fue ajena podrán ser liberados total o parcialmente de responsabilidad. Esto es especialmente relevante cuando se trata del uso de sistemas de IA en el contexto de las relaciones con los consumidores. ROSATI, Florencia y LAMARCA VIDAL, Mariana Los retos legales de la inteligencia artificial en ChatGPT. Descifrando el futuro. Publicado en: LA LEY 10/05/2023, 1. LA LEY 2023-C, 74. Cita: TR LALEY AR/DOC/1074/2023.
[30] El usuario final es aquella persona física o jurídica que utiliza las herramientas de IA para uso personal, sin incorporarlas a una actividad comercial y/o profesional. En el caso concreto se deberá analizar si esta conducta que influye en el funcionamiento del sistema y/o esta falta de actualización crítica importa un cambio en la estructura del sistema de IA y/o en la incorporación de datos nuevos de entrenamiento que no han sido autorizados por el proveedor/operador en sentido genérico. La conducta desplegada por el usuario final que ocasiona un daño puede ser considerado el hecho de un tercero por el cual el demandado no debe responder, o bien un hecho del damnificado. En cualquier caso, la eximente deberá ser probada por quién la alega. COLOMBO, María Celeste La actividad del usuario de los sistemas de IA como eximente de responsabilidad. Publicado en: LA LEY 14/02/2025, 8. Cita: TR LALEY AR/DOC/267/2025.
[31] En el campo de la IA la idea de defecto debe ser redefinida. Si una IA evoluciona en su pensamiento y da soluciones inesperadas que pueden ser funcionales, disfuncionales o a-funcionales, (Resultado querido, resultado no querido y resultado no esperado pero inocuo), ¿es defecto, una falla, un error, mal funcionamiento o una evolución? En el caso de productos defectuosos, el límite invariable es el momento de la producción: los problemas que aparecen más tarde, a menos que sean meras manifestaciones de algún defecto preexistente, no se tienen en cuenta. Pero la utilidad de la IA reside precisamente en su adaptabilidad; es decir, en la capacidad de los algoritmos encarnados en él para cambiar y mejorar a la luz de la experiencia, sin que el productor original tenga necesariamente la última palabra. Por lo tanto, puede ser apropiado imponer responsabilidad por errores de cálculo de la IA incluso con respecto a fallas posteriores al tomar en cuenta la experiencia. THOMAS, Gustavo J. Responsabilidad civil del Estado por el uso de IA 3.0 y 4.0 (autónoma). Publicado en: LA LEY 11/11/2024, 1. LA LEY 2024-F, 45 Cita: TR LALEY AR/DOC/2883/2024.
[32] “…la opacidad algorítmica, también conocida como efecto caja negra, dificulta la identificación de punto donde el sistema presenta una falla y su porqué, y la consiguiente atribución de responsabilidades. En efecto, la lógica decisional de los sistemas de IA no siempre es transparente y explicable. Esto genera incertidumbre en la determinación de responsabilidades, especialmente en situaciones donde la IA toma decisiones fuera del control directo de sus diseñadores o usuarios. COLOMBO, María Celeste. La actividad del usuario de los sistemas de IA como eximente de responsabilidad. Publicado en: LA LEY 14/02/2025, 8. Cita: TR LALEY AR/DOC/267/2025.
[33] Responsabilidad Civil derivada de la Inteligencia Artificial y los Sistemas Inteligentes. Galdós, Jorge M.Valicenti, Ezequiel. Publicado en La Ley 18/02/2025. Cita: TR La Ley AR/DOC/270/2025.
[34] La pregunta es si, y cómo, las características de los sistemas de IA, incluidas la autonomía, la velocidad, la imprevisibilidad y la opacidad, podrían afectar o complicar la atribución de responsabilidad… En este escenario, la conducta humana que más claramente contribuye al daño posterior recae del lado de quienes tomaron las decisiones para desplegar y activar el sistema de IA. THOMAS, Gustavo J. Responsabilidad civil del Estado por el uso de IA 3.0 y 4.0 (autónoma). Publicado en: LA LEY 11/11/2024, 1. LA LEY 2024-F, 45. Cita: TR LALEY AR/DOC/2883/2024.
[35] “El derecho de daños tradicional se basa en la capacidad humana y su capacidad moral. Esto es obviamente inherente al estándar de persona razonable que subyace al derecho de negligencia, incluso cuando la responsabilidad es estricta o directa. En el caso de las máquinas llamadas "tontas", esto realmente no importa. Cuando una máquina, incluida una computadora, interviene en la causa de un daño, la cuestión es simplemente si quienes la manejan o controlan son personalmente culpables u, ocasionalmente (en casos de responsabilidad por el producto), si la máquina que están utilizando es en sí misma defectuosa. Pero una vez que recurrimos a la IA, el proceso inmediatamente se vuelve mucho más problemático. El funcionamiento de las máquinas equipadas con IA no está destinado a ser fácilmente comprensible para las personas, ni siquiera a nivel general; de hecho, muchos de estos dispositivos están diseñados precisamente para funcionar de forma autónoma e independiente de la supervisión humana. Su conducta puede incluso evolucionar a resultados no queridos o disfuncionales.” THOMAS, Gustavo J. Responsabilidad civil del Estado por el uso de IA 3.0 y 4.0 (autónoma). Publicado en: LA LEY 11/11/2024, 1. LA LEY 2024-F, 45. Cita: TR LALEY AR/DOC/2883/2024.
[36] ”La primera ventaja del conocimiento es que nos regala un saber que antes no teníamos. La segunda nos alerta acerca de la incompletitud del saber humano. Todo cuanto sabemos es provisorio y depende de cuan pronto lleguemos a conocer las infinitas cosas que aún ignoramos. Es muy probable que un descubrimiento próximo derogue las verdades del anterior; así, la idea de una evolución permanente del conocimiento hace que tengamos una sola certeza: dentro de poco vamos a conocer nuevas verdades que hoy permanecen ocultas.” SHINA. Fernando E. Desarrollo Tecnológico y responsabilidad. Los nuevos desafíos del derecho. Publicado en: RCCyC 2019 (mayo), 138. Cita: TR LALEY AR/DOC/828/2019, pág. 144 y 145.
[37] Los institutos clásicos de la responsabilidad civil no son de fácil análisis ante una situación protagonizada por la intervención de la IA, en tanto los lineamientos tradicionales se ven amenazados por la nueva tecnología, por aquel carácter autónomo e imprevisible que hemos mencionado, que hace que la intervención del hombre sea cada vez menor en el actuar de la IA… Es un punto controvertido y crucial de análisis la situación en la cual la máquina opera fuera de lo previsible, lo que puede suceder a raíz de la compleja programación que hay detrás de ella. Entonces, ¿qué sucede con la responsabilidad cuando se pierde el control de la tecnología y ya no es previsible su "conducta"?, ¿se carga igualmente al productor con la responsabilidad?, ¿o se distingue de alguna manera la solución?.. Dada la imposibilidad de saber el origen de la falla, decimos que no podemos aplicar ante una contingencia provocada por la IA la teoría de la causalidad adecuada, en la medida que no sabremos cuál es la más idónea para causar ese daño. Se trata de una tecnología completamente en vías de desarrollo; y si intentamos buscar la falla, el proceso jamás podría llegar a proteger a la víctima, prolongándose al infinito en el tiempo… La aplicación de un sistema de imputación subjetiva no haría más que dejar sin protección a la persona humana, en la medida de que el creador se desliga de responsabilidad por probar la no intención en el daño. Estamos ante un escenario de máxima fragilidad para el ser humano, donde grandes derechos se pueden ver dañados, como lo es el derecho a la vida. Es necesario indagar acerca de cómo se resuelve un caso en el cual el daño es causado por la IA ante la imprevisibilidad reinante de sus acciones. Esa imprevisibilidad no es más que fruto de los procesos lógicos que la integran, que hace que quien la inventa o la programa conozca la posibilidad de imprevisibilidad de su conducta. Ante la falta de discernimiento y de libertad, y la sola imitación del hombre, decimos que la responsabilidad jamás podría recaer sobre la IA en sí misma, sino sobre quienes integran la cadena de diseño, producción, fabricación, y comercialización de esta.

Se debe aquí atribuir un criterio de imputación objetiva, donde no podemos recurrir a los criterios de la causalidad adecuada, dado que no podemos encontrar la causa adecuada del daño ante un sistema tan complejo como el de la IA. La responsabilidad entre aquellos que intervienen en la cadena será concurrente, de manera que así se pueda otorgar mayor protección a la víctima, a la persona humana, que es el centro del ordenamiento jurídico. Ante un caso de responsabilidad civil por un daño causado por la IA son aplicables las reglas de la responsabilidad por actividades riesgosas y no las de las cosas riesgosas, siendo la IA un objeto inmaterial. Se trata de parámetros que quienes desarrollan esta actividad deben tener presentes, lo que influirá mucho en las medidas de desarrollo de esta actividad, dadas las externalidades positivas y negativas que implican el criterio de atribución objetivo y la responsabilidad concurrente. Empero, el ordenamiento jurídico debe también tener cuidado en no ser restrictivo en el desarrollo de esta actividad, dada su gran importancia en la sociedad y el siguiente desarrollo del ser humano. QUIÑONES, María Constanza. Daños derivados de la inteligencia artificial. Publicado en: LA LEY 10/10/2024, 1. LA LEY 2024-E, 305. LLO.Cita: TR LALEY AR/DOC/2478/2024.

[38] “…impacto que poseen sobre el régimen de responsabilidad civil. Por ejemplo, la complejidad y la sofisticación técnica en la integración del hardware y del software pueden hacer difícil determinar qué componente causó el daño; la opacidad, particularmente en los casos de autoaprendizaje, dificulta entender cómo funciona el sistema de IA y complica determinar el origen del daño; la apertura, esto es, la posibilidad de que el sistema tenga actualizaciones o mejora posteriores a su puesta en circulación, supone un cambio en el concepto de "entrada en el mercado" e incide en la responsabilidad poscontractual del proveedor; la autonomía de los sistemas provoca una desvinculación entre la conducta humana y el dispositivo, y pone en crisis la imputación de responsabilidad civil, principalmente, la basada en la culpa; la imprevisibilidad y la posibilidad de que el Sistema de IA pueda identificar por sí misma nuevos estímulos del entorno que no han sido previstos en la programación original, o de operar sobre datos que no eran conocidos al momento del diseño y la "fabricación", alteran el concepto de producto y los límites de la responsabilidad del fabricante.” ATAZ LÓPEZ, Joaquín, "Daños causados por las cosas: una nueva visión de la robótica y de la inteligencia artificial", Working papers Jean Monnet Chair, 4/2020, disponible en: http://hdl.handle.net/2445/169850, visitado el 15/07/2024 en GALDÓS, Jorge M., VALICENTI, Ezequiel “Responsabilidad civil derivada de la inteligencia artificial y los sistemas inteligentes”. Publicado en: LA LEY 18/02/2025, 1. Cita: TR LALEY AR/DOC/270/2025.
[39] Pensamos que el texto legal alude al riesgo de desarrollo y que el legislador quiso imponer al deudor la carga de los riesgos relacionados con su actividad. Este camino interpretativo del art. 1733 nos conduce a la responsabilidad plena por los daños derivados de los riesgos por el desarrollo. SHINA. Fernando E. Desarrollo Tecnológico y responsabilidad. Los nuevos desafíos del derecho. Publicado en: RCCyC 2019 (mayo), 138 Cita: TR LALEY AR/DOC/828/2019, pág. 147 y 148.
[40] “…el eventual caso fortuito o fuerza mayor que para ser eximentes válidos deben ser ajenos al riesgo inherente a la actividad de la red social, aplicación, soportes de internet o bases de datos en los que se almacenan la información o las imágenes que hacen a los derechos personalísimos de los usuarios. Por ello, solo la culpa exclusiva de la víctima y el caso fortuito o fuerza mayor extraños al riesgo de la actividad son idóneos para liberar al civilmente responsable por los ataques, difusión o comercialización de los datos, imágenes e información personalísima del usuario de internet. AZAR, Aldo M. Responsabilidad por los sistemas de inteligencia artificial en entornos virtuales, aplicaciones, sitios de internet y plataformas digitales. La configuración de una nueva obligación de seguridad por daños a derechos personalísimos, datos personales y atributos de la personalidad a la luz de los tratados de derechos humanos. Publicado en: RCCyC 2024 (Septiembre-Octubre), 75. Cita: TR LALEY AR/DOC/1983/2024.
[41] GALDÓS, Jorge M., VALICENTI, Ezequiel. Responsabilidad Civil derivada de la Inteligencia Artificial y los Sistemas Inteligentes. Publicado en La Ley 18/02/2025. Cita: TR La Ley AR/DOC/270/2025.
[42] Pensemos en un caso de responsabilidad por daños, nuestro Cód. Civ. y Com., que este año cumple recién 10 años, cuenta con institutos como la previsión del daño, la reparación integral del daño, la responsabilidad subjetiva y la responsabilidad objetiva (como excepción) y el principio de alterum non laedere, entre tantos otros institutos que son amplios y específicos y que perfectamente sirven para resolver los casos pasados, los actuales y los futuros. Pero eso no es todo. Existe una amplia jurisprudencia emanada por nuestro Máximo Tribunal en donde ya se fija qué parámetros seguir, cuándo se considera que existe responsabilidad objetiva y cuándo subjetiva, qué daños son indemnizables tratando situaciones no específicamente reguladas. Otro tanto ocurre con lo que es defensa del consumidor. Si hay algo que Argentina cuenta es con normas en la materia. Pues bien, en caso de existir un daño a un consumidor, fruto del uso de la inteligencia artificial, se recurrirá a este régimen protectorio. Y, en este sentido, fijar una nueva pauta de interpretación que difiera no sería más que crear caos e incertidumbre. CRUZ BORELLO, Julián y ABDELNABE VILA, Carolina. Regular no puede sucumbir al miedo: ¿Realmente es necesario en Argentina una regulación para la inteligencia artificial? Publicado en: RCCyC 2025 (abril), 57. Cita:TR LALEY AR/DOC/551/2025.
[43] “Cuando se trata de la responsabilidad del conductor en la conducción del vehículo robótico debemos analizar el supuesto de la reversión del dominio en su manejo. En ese aspecto debemos valorar que la investigación judicial deberá determinar, de acuerdo con los datos almacenados en el sistema informático, cuándo se produjo la cesión de la conducción automática al conductor humano, ya que seguramente la discusión probatoria versará sobre el momento en el que la conducción robótica finalizó y cuándo comenzó la conducción convencional del vehículo. Por ejemplo, en el citado accidente fatal que ocurrió en Tempe con el uso de un prototipo de vehículo automatizado en el que estaba presente una empleada de la empresa, la producción del resultado disvalioso que consistió en la muerte de la mujer puede ser atribuida de manera colectiva tanto al operador remoto del sistema de conducción como al propio operador ubicado en el interior del vehículo, hasta el programador del sistema informático, incluso abarcar la auto puesta en peligro de la víctima.” ABOSO. Gustavo E. La responsabilidad penal derivada del uso de automóviles autónomos, con especial referencia a la nueva regulación francesa. Publicado en: Sup. Innovación y Derecho 2022 (febrero), 1. LA LEY 2022-B. Cita: TR LALEY AR/DOC/3676/2021.

Declaración de intereses

* Doctora en Derecho por la Universidad Nacional del Litoral. Profesora adjunta ordinaria de la cátedra Fundamentos de Derecho Privado y Derecho de los Contratos en la Facultad de Ciencias Jurídicas y Sociales de la mencionada casa de estudios. Secretaria Académica de la Facultad de Ciencias Jurídicas y Sociales de la UNL.


Buscar:
Ir a la Página
IR
Modelo de publicación sin fines de lucro para conservar la naturaleza académica y abierta de la comunicación científica
Visor de artículos científicos generados a partir de XML-JATS4R