Artículos libres
Recepción: 23 abril 2025
Aprobación: 12 agosto 2025
Resumen:
El uso creciente de sistemas de inteligencia artificial (IA) plantea importantes desafíos para el derecho privado, en especial en lo relativo a la responsabilidad civil por los daños que tales tecnologías pueden causar.
Para poder resolver, cuando se produzcan daños derivados del uso de IA, a quien se imputa responsabilidad, es preciso primero categorizar a estos sistemas. En tal sentido la doctrina ha venido preguntándose si es necesario crear una nueva categoría jurídica o si, por el contrario, las normas jurídicas en vigencia resultan suficientes. Tratando de responder a esta cuestión, se propuso la creación de una personalidad electrónica, asignándole la responsabilidad jurídica de reparar los daños que cause. Se hicieron también otros intentos que giraron en torno a la responsabilidad de los padres por los hechos de los hijos o la prevista para el dueño de un animal. Todos estos intentos fueron descartados rápidamente.
En otras jurisdicciones existen ya regulaciones, pero en nuestro país no tenemos una regulación específica. Algunos autores sostienen que el sistema y los subsistemas vigentes resultan suficientes, otros reclaman una norma general y finalmente existen otras opiniones que señalan la conveniencia de ver caso por caso.
Lo cierto es que, mientras no exista esta regulación, nuestro sistema legal de responsabilidad civil nos permite afrontar los daños que pudieren producirse, ya sea recurriendo a los arts. 1757 y 1758 CCCN o bien, en el supuesto de que el damnificado sea un consumidor, al art. 40 de la ley 24.240.
Palabras clave: Inteligencia artificial, responsabilidad civil, derecho privado, regulación jurídica, actividades riesgosas.
Abstract:
The increasing use of Artificial Intelligence (AI) systems raises significant challenges for private law, particularly regarding civil liability for damages caused by such technologies.
To determine who is liable when damages arise from the use of AI, it is essential first to categorize these systems. In this regard, legal scholars have been questioning whether it is necessary to create a new legal category or if, on the contrary, existing legal norms are sufficient. In trying to answer this question, the creation of an electronic personality was proposed, assigning it the legal responsibility to repair the damages it causes. Other attempts were also made regarding the liability of parents for their children's actions or that of an animal's owner. All these attempts were quickly dismissed.
In other jurisdictions, regulations already exist, but in our country, we do not have a specific regulation. Some authors argue that the current system and subsystems are sufficient, while others call for a general norm, and finally, there are other opinions that suggest the convenience of evaluating each case individually.
The truth is that, while this regulation does not exist, our civil liability legal system allows us to address any damages that may occur, either by resorting to articles 1757 and 1758 of the CCCN or, in the event that the harmed party is a consumer, to article 40 of Law 24.240.
Keywords: Artificial Intelligence, civil liability, private law, legal regulation, risk activities.
1. Introducción
Las ventajas que ha traído el uso de la inteligencia artificial son innumerables, como lo son las que se avizoran para un futuro bien cercano. Y esto en todos los campos, las comunicaciones, el transporte, la medicina, la producción de bienes, etc, etc… La contracara son los peligros, o sea la posibilidad cierta de que se ocasionen daños. En tal sentido, no todos los dispositivos dotados de IA tienen la misma potencialidad. Una cosa es un robot para limpiar pisos (sin embargo sabemos ya de un caso de daños producidos por este artefacto)[1] y otra un vehículo autónomo, máquinas potentes, robots, sistemas que almacenan datos,[2] que se utilizan para diagnosticar, predecir, seleccionar empleados, otorgar créditos, entre otros. Daños a la privacidad, riesgos de discriminación por utilización de datos erróneos o sesgados,[3]daños psicológicos derivados de la interacción con robots con rasgos humanos o de animales para acompañar enfermos o niños, son ciertamente esperables.
Ahora bien, para poder resolver, cuando se produzcan daños derivados del uso de IA, a quien se imputa responsabilidad, es preciso primero categorizar a estos sistemas. En tal sentido la doctrina ha venido preguntándose si es necesario crear una nueva categoría jurídica o si, por el contrario, las normas jurídicas en vigencia resultan suficientes. Se busca saber, básicamente, si responderá el fabricante, el distribuidor, importador, programador o desarrollador de la tecnología que ha causado el daño, el usuario de la misma o si es posible asignar responsabilidad al propio agente inteligente, cuando sea capaz de tomar decisiones autónomas.
2. La IA y categorías jurídicas
Tratando de responder a esta cuestión, o sea, a quien imputaremos responsabilidad cuando se cause un daño por el uso de IA, se hicieron diferentes intentos. Así se propuso la creación de una personalidad electrónica, asignándole la responsabilidad jurídica de reparar los daños que cause.[4] Esto fue lo que recomendó, en una primera instancia, el Parlamento Europeo a la Comisión encargada de proponer normas sobre robótica en el año 2017. Tal recomendación generó el rechazo de expertos que pidieron que no se les dé a los robots el estatus de persona electrónica. En el año 2018 la Comisión Europea presentó una comunicación donde, lejos de proclamar una personalidad robótica, advirtió que, cuando se produzcan efectos adversos injustos, deben estar previstos mecanismos accesibles que garanticen una reparación.[5]
La creación de una “personalidad electrónica” importaba, claramente, una clara ventaja para los desarrolladores, que asumen un enorme riesgo. Así, responsabilizando al propio agente, se favorecería el avance tecnológico. Otra razón sustentada fue la dificultad por encontrar al responsable del daño, se dijo entonces que dotando a estos agentes inteligentes de un patrimonio y un seguro, se facilitaría a los damnificados la posibilidad de ser efectivamente resarcidos.[6]
También se propuso asimilar a estos agentes a la persona jurídica, olvidando que las personas jurídicas tienen siempre un sustrato humano, mientras que los agentes inteligentes son creaciones del intelecto humano.[7] También que si les asignamos personalidad, deberíamos reconocerles derechos, a la par que un patrimonio y obligaciones.[8]Como sea, esta posibilidad de crear una personalidad electrónica fue desechada, ya que la misma se fundamentaba más en la intención de eximir de responsabilidades a los fabricantes, que en la de dar una solución a las víctimas de los daños.
Ahora bien, aunque parezca descartada la posibilidad de asignar personalidad electrónica o artificial a estos agentes está claro que, como cosas, presentan particularidades y aptitudes que deben ser captadas y reguladas en tanto y en cuanto pueden tomar decisiones basadas en la experiencia y la interrelación.
Por tal razón se hicieron otras propuestas tratando de categorizar a la IA y resolver el problema de a quién se imputa responsabilidad. Estas giraron en torno a la responsabilidad de los padres por los hechos de los hijos o la prevista para el dueño de un animal.[9] Propuestas también descartadas rápidamente.
3. Algunas regulaciones jurídicas
En otras jurisdicciones existen ya regulaciones de algunas actividades como, por ejemplo, la utilización de vehículos autónomos. Las soluciones que se propician van desde asignar responsabilidad a la persona humana que viaja en el vehículo, a la que lo controla remotamente, al propietario del vehículo, además de a los programadores y a los fabricantes de los mismos, pero en ningún caso se ha propuesto una persona jurídica electrónica responsable.
OCDE adoptó en el año 2019 una Recomendación sobre el uso fiable de la IA, la que fue acogida por los líderes del G20. Esta Recomendación fue revisada por el Consejo de la OCDE en el año 2024. Básicamente se recomienda una gestión responsable de la IA donde los actores respeten el Estado de derecho, los derechos humanos, la democracia y los valores centrados en el ser humano durante todo el ciclo de vida del sistema de IA, incluyendo la no discriminación y la igualdad, la libertad, la dignidad, la autonomía de las personas, la privacidad y la protección de datos, la diversidad, la equidad, la justicia social y los derechos laborales internacionalmente reconocidos. Para ello se recomienda que los sistemas de IA sean robustos, seguros y protegidos durante todo su ciclo de vida para que no planteen riesgos irrazonables de seguridad; que se establezcan mecanismos para garantizar el correcto funcionamiento de los sistemas de IA y su trazabilidad y aplicar un enfoque sistemático de gestión de riesgos.[10]
Por su parte, en noviembre de 2021 fue UNESCO quien elaboró la primera norma mundial sobre IA denominada: "Recomendación sobre la ética de la inteligencia artificial". Es aplicable a los 194 Estados miembros de la organización. El objetivo de la recomendación fue el de servir de base para poner los sistemas de IA al servicio de la humanidad, las personas, las sociedades, el medio ambiente y los ecosistemas, así como para prevenir daños. Aspira también a estimular la utilización de los sistemas de IA con fines pacíficos. Particularmente se recomendó que, en caso de que pueda producirse cualquier daño para los seres humanos, los derechos humanos y las libertades fundamentales, las comunidades y la sociedad en general, o para el medio ambiente y los ecosistemas, debería garantizarse la aplicación de procedimientos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca. También recomienda que los actores de la IA y los Estados Miembros asuman su responsabilidad ética y jurídica respectiva, de conformidad con el derecho nacional e internacional, en particular las obligaciones de los Estados Miembros en materia de derechos humanos, y con las directrices éticas establecidas durante todo el ciclo de vida de los sistemas de IA, incluso con respecto a los actores de la IA dentro de su territorio y bajo su control efectivos. Se establece que: “La responsabilidad ética y la obligación de rendir cuentas de las decisiones y las acciones basadas de alguna manera en un sistema de IA siempre deberían ser atribuibles, en última instancia, a los actores de la IA conforme a la función que tengan en el ciclo de vida del sistema de IA”.[11]
Volviendo al Derecho Europeo, que es donde desde un principio se han preocupado por regular la utilización de la IA, la creciente difusión de la misma planteó interrogantes cruciales en relación con la seguridad, la transparencia y la protección de los derechos fundamentales. Las vulnerabilidades estructurales de los sistemas inteligentes —desde los ataques adversarios hasta la manipulación de datos— evidenciaron la necesidad de un enfoque integrado, que no se limitara a soluciones técnicas, sino que también incorporara principios jurídicos y éticos. La Unión Europea, a través del RGPD y la propuesta de Reglamento sobre IA, ha trazado una vía normativa innovadora, capaz de colocar en el centro del debate el valor de la persona y la confianza en el ecosistema digital. Sin embargo, la regulación de la seguridad en la IA sigue siendo un ámbito en constante evolución, donde los desafíos relacionados con la adaptabilidad normativa y la cooperación internacional requieren respuestas flexibles e interdisciplinarias.[12]
En este sentido fue que se publicó, el 13 de junio de 2024, el Reglamento de la Unión Europea 2024/1689.[13] Este Reglamento establece normas armonizadas en materia de inteligencia artificial y declara como objetivo el de mejorar su funcionamiento y promover una inteligencia artificial (IA) centrada en el ser humano y fiable, que garantice un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA en la Unión así como prestar apoyo a la innovación. Está destinado a proveedores, importadores, fabricantes, distribuidores y representantes que introduzcan al mercado modelos de IA, sin tener en cuenta si estos proveedores están establecidos en la Unión Europea o fuera de ella.
El citado Reglamento comienza por definir lo que va a regular y así, en su art. 3º., nos dice que un "Sistema de IA" es "un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales".
Algunas prácticas resultan directamente prohibidas, como las que importen utilizar un sistema de IA para manipular o engañar, explotar vulnerabilidades de una persona física, evaluar o clasificar a las personas de forma que su puntuación provoque un trato perjudicial o valorar o predecir el riesgo de que una persona cometa un delito o inferir sus emociones o clasificar a las personas en base a sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida u orientación sexual.
También se establecen las reglas para clasificar los sistemas de alto riesgo que son aquellos que planteen un riesgo importante de causar un perjuicio a la salud, seguridad, o los derechos fundamentales de las personas físicas o también al influir sustancialmente en el resultado de la toma de decisiones o efectuar la elaboración de perfiles de las mismas. Para estos sistemas se establece la creación de un sistema de gestión de riesgos y se exige que funcionen con transparencia y supervisión humana, para prevenir o reducir los riesgos.
Además se crean Códigos de buenas prácticas para los modelos de IA de uso general y se obliga a los proveedores a notificar los incidentes graves estableciendo todo un procedimiento para estos casos.
Una de las innovaciones más relevantes del marco propuesto es la institucionalización de la "evaluación de impacto algorítmico", concebida como una herramienta preventiva para analizar los posibles efectos adversos de los sistemas de IA en términos de privacidad, seguridad, discriminación y transparencia… Otra dimensión central del marco legal es la exigencia de trazabilidad de los sistemas de IA. Esto implica que los desarrolladores y operadores de IA deben documentar y archivar de manera sistemática el ciclo de vida del sistema, incluyendo el origen de los datos utilizados, los métodos de entrenamiento del modelo, las decisiones de diseño, y los resultados obtenidos. La trazabilidad no solo es esencial para la rendición de cuentas, sino que también permite detectar fallos, realizar auditorías y facilitar el control regulatorio.[14]
Pero lo que nos interesa destacar, dentro del largo articulado del Reglamento, es que respecto a la responsabilidad por daños, en el art. 79, se estipula que: “Los sistemas de IA que presentan un riesgo se entenderán como productos que presentan un riesgo tal como se definen en el artículo 3, punto 19, del Reglamento (UE) 2019/1020, en la medida en que presenten riesgos que afecten a la salud, la seguridad o los derechos fundamentales de la persona.
Y el Art. 3º. Inciso 19) del Reglamento UE 2019/1020 al que se remite, define al «producto que presenta un riesgo» como un producto que puede afectar negativamente a la salud y la seguridad de las personas en general, a la salud y la seguridad en el trabajo, a la protección de los consumidores, al medio ambiente, a la seguridad pública o a otros intereses públicos protegidos por la legislación de armonización de la Unión aplicable, en un grado que vaya más allá de lo que se considere razonable y aceptable en relación con su finalidad prevista o en las condiciones de uso normales o razonablemente previsibles del producto en cuestión, incluida la duración de su utilización y, en su caso, los requisitos de su puesta en servicio, instalación y mantenimiento...”
Dejando Europa y yendo a EEUU, vemos que allí el Departamento de Seguridad Nacional (DHS) creó un Consejo integrado por los directores ejecutivos de OpenAI, Microsoft, Alphabet —empresa matriz de Google— y Nvidia, para asesorar al Gobierno sobre el papel de la IA. Este Consejo tiene como objetivo concentrarse en la búsqueda y aplicación de soluciones prácticas para garantizar el despliegue de esta tecnología y así contrarrestar las amenazas que puedan surgir por su mal uso.”[15]
En cuanto a nuestro país, no contamos con una regulación completa del funcionamiento de estos sistemas, aunque sí podemos señalar algunas normas sobre la materia como la Disposición 2/23 de la Subsecretaría de Tecnologías de la Información sobre "Recomendaciones para una Inteligencia Artificial Fiable" publicada el 01/06/2023, la Comunicación “A” 7724 del Banco Central de la República Argentina “sobre Requisitos mínimos para la gestión y control de los riesgos de tecnología y seguridad de la información”, destinada a las instituciones reguladas por aquella entidad, las resoluciones 428/2024 (sobre "cibepatrullaje") y 710/2024 (de creación de la Unidad de Inteligencia Aplicada a la Seguridad),[16] la resolución 111/2024 del Ministerio de Seguridad de la Nación que crea el "Programa Nacional Integral de IA en la justicia" o la "Guía en materia de Transparencia y Protección de Datos para una IA responsable" dictada por AAIP (Agencia de Acceso a la Información Pública). Existen además varios proyectos legislativos en la materia.
Las “Recomendaciones para una Inteligencia Artificial Fiable” mencionadas, fueron aprobadas por la Disposición SSTI 2/2023 de la Subsecretaría de Tecnologías de la Información y se basan en la Recomendación sobre la Ética de la Inteligencia Artificial de UNESCO, el marco normativo de la Unión Europea, los principios de Asilomar,[17] los Principios de la OCDE sobre IA, los Principios de IA centrados en el ser humano del G20 y los trabajos de AI4Good de la UIT.[18]Se trata de recomendaciones generales que, en lo que hace a responsabilidad específicamente, solo prevé que: “Ante incidentes éticos, quienes estén designados como responsables deben actuar de forma inmediata, contando con los medios definidos a tal fin en la etapa de diseño, por vías formales e institucionalizadas” así como que “Las acciones de responsabilidad y rendición de cuentas involucradas deberán quedar registradas y ser definidas como casos testigos para su estudio y debate como parte de las lecciones aprendidas, necesarias para el aprendizaje organizacional y la mejora continua de procesos: ambos aspectos que favorecen a la innovación pública.”
4. ¿Es necesaria una regulación especial de la IA en nuestro ordenamiento?
De lo antes reseñado surge que no tenemos una regulación específica sobre la materia. Entonces, a quién atribuiremos responsabilidad cuando se ocasionen daños por la utilización de IA. Ésta es la cuestión a resolver.
En torno a la misma algunos autores sostienen que el sistema y los subsistemas vigentes resultan suficientes, otros reclaman una norma general[19] y finalmente existen otras opiniones que señalan la conveniencia de ver caso por caso.[20]
Creemos que lo que resulta de particular importancia para resolver el problema es tener en cuenta las características de los sistemas de IA para aprender y la autonomía que poseen. Por tal razón, seguramente será necesaria alguna regulación especial en el futuro, que tendrá que ser abierta y flexible, además de compatible con las regulaciones que se dicten en el extranjero, dado el carácter transnacional y global del fenómeno. Pero, mientras tanto, debemos recurrir a nuestras normas generales del CCCN y a la ley de defensa de los derechos de los consumidores.[21]
En tal sentido, ya en el año 2019, cuando se abordó en la Comisión Nº 3 de las Jornadas Nacionales de Derecho Civil celebradas en Santa Fe, el tema de las Actividades Riesgosas o Peligrosas, al hacer una enumeración ejemplificativa en las conclusiones de las actividades riesgosas, se incluyó expresamente y por unanimidad, la utilización de algoritmos, las actividades cibernéticas, las plataformas digitales y sistemas operados por inteligencia artificial.
Y específicamente el tema fue objeto de estudio de la Comisión N° 3 de Derecho de daños de las XXIX Jornadas Nacionales de Derecho Civil realizadas en Pilar en setiembre del 2024. Allí se concluyó por mayoría, en relación al tema: “Daños derivados de la inteligencia artificial”, que:
en el Código Civil y Comercial Argentino, los sistemas de I.A., robots y algoritmos, son objeto de derechos, descartando su calificación jurídica como sujetos o centro de imputación de derechos y obligaciones.
las reglas de la causalidad adecuada son aplicables a los daños de la IA.
el hecho del damnificado debe ser apreciado en forma prudente cuando los daños son causados por la IA.
la doctrina de las cargas dinámicas puede ser útil para la prueba de la causalidad.
respecto al vehículo autónomo que la responsabilidad del dueño o guardián de un vehículo autónomo es objetiva; no pueden eximirse por errores en la conducción causados por la IA.
la aplicación de la LDC: En la medida en que hay un proveedor profesional y un usuario en los términos de la LDC ésta resulta aplicable en general y en particular el art. 40 LDC.
La utilización de la IA en la prestación médica es un caso del régimen general del art. 1768 CCC (aunque otro despacho sostuvo que la utilización de la IA en la prestación médica es un caso que exorbita el régimen general del art. 1768 CCC.)
Y de lege ferenda se sostuvo que:
resulta necesaria una regulación en supuestos específicos de daños derivados de IA.
debe procurarse la robustez de los sistemas de IA estableciendo estándares de ciber seguridad.
debe legislarse sobre la responsabilidad de las plataformas por la generación de información ilícita de parte de la I.A.
reconocer el carácter global del fenómeno tecnológico a fin de coordinar la protección eficaz de los involucrados en el uso de la IA.
no resulta conveniente atribuir personalidad jurídica a robots.
De las conclusiones transcriptas es posible inferir un cierto consenso en nuestra doctrina nacional, acerca de que los sistemas de IA quedan comprendidos en el concepto normativo de cosa y actividad. Entonces, si pretendemos dar una respuesta al problema de la responsabilidad por el uso de sistemas dotados de IA, tendremos que comenzar por analizar los supuestos de funcionamiento de la responsabilidad por vicio o riesgo de la cosa o actividad.
5. La respuesta desde el ordenamiento jurídico vigente: la responsabilidad civil y sus presupuestos
Empecemos por recordar que en nuestro derecho la responsabilidad civil ha sido definida como “… el instituto o fenómeno de Derecho Privado constitutivo de un subsistema... edificado sobre la base de reglas, normas y principios, que organiza y determina cómo se distribuye y cómo se reacciona frente al daño injustamente sufrido; es decir, se trata de la estructura normativa que determina quién, cuándo, cómo y contra quién, puede exigir coactivamente... que ‘se haga cargo’ de las consecuencias previamente determinadas como resarcibles”.[22] Esta responsabilidad, también recordaremos someramente, se asienta en presupuestos o elementos que integran la ilicitud civil, tales son:
5.1. La antijuridicidad
La responsabilidad se asienta en presupuestos o elementos que integran la ilicitud civil. Se ha señalado como primer presupuesto a la antijuridicidad, que estaría dada por la conducta del agente contraria el principio de no dañar a otro y, en el ámbito contractual, del incumplimiento de una obligación preexistente. Tal distinción aparece en los artículos 1.716 y 1.749 CCCN, que diferencian la violación del deber general de no dañar a otro y el incumplimiento de una obligación, siempre que cause un daño, como las dos principales fuentes de la responsabilidad civil.
Cuando hablamos de antijuridicidad debemos recordar que esta abarca tanto la antijuridicidad “formal”, que requiere una conducta contraria a lo dispuesto específicamente por una norma, como a la “material”, conforme al artículo 1717 del CCCN: “cualquier acción u omisión que causa un daño a otro es antijurídica si no está justificada”.
De la norma citada se concluye que la antijuridicidad ya no se califica por la conducta desplegada por el agente, sino por el daño injustificado acaecido como resultado de tal conducta y esto lleva a que, existan supuestos en los cuales sin que exista un obrar antijurídico, nazca la obligación de reparar un daño injusto acaecido como resultado de un obrar lícito.[23]
Por tanto, habrá siempre responsabilidad cuando se causen daños como resultado de la utilización de productos dotados de IA o se realicen actividades que involucren esta tecnología. Los defectos podrían provenir del diseño o la programación, de los datos utilizados, de la creación de perfiles, divulgación de noticias falsas, manipulación de opiniones, invasión a la privacidad por el seguimiento del usuario y control de su actividad en la red o entornos virtuales; etc.
5.2. El factor de atribución
Tradicionalmente se ha señalado como otro presupuesto al factor de atribución, que sería la razón por la cual la ley atribuye responsabilidad civil a una persona, obligándolo a resarcir el daño causado. Este factor de atribución puede ser subjetivo u objetivo (1721 CCCN). Los factores subjetivos, según el art. 1724 del CCCN, son la culpa y el dolo. El primero consiste en “…la omisión de la diligencia debida según la naturaleza de la obligación y las circunstancias de la persona, el tiempo y el lugar. Comprende la imprudencia, la negligencia y la impericia en el arte o profesión” y el segundo en “…la producción de un daño de manera intencional o con manifiesta indiferencia por los intereses ajenos”.
El factor de atribución es objetivo cuando la culpa del agente es irrelevante a los efectos de atribuir responsabilidad (1722 CCCN), tal como la responsabilidad por el hecho de las cosas o las actividades riesgosas (art.1757).
Ahora bien, hemos dicho que la construcción actual de la responsabilidad tiene en mira a la víctima, debiendo repararse todo daño injusto que la misma sufra, lo que ha llevado a una proliferación de los factores objetivos de atribución. Sin embargo hoy la doctrina se plantea si esto seguirá siendo así en relación a los nuevos daños causados por la tecnología.[24] O sea, si esta responsabilidad objetiva resultará adecuada para resolver los daños que en un futuro puedan ser ocasionados como consecuencia de la tecnología, tales como los derivados de la medicina digital[25] o de la enorme recolección de datos que supone la IA.
En los fallos dictados hasta el momento, como consecuencia de daños ocasionados por el uso de motores de búsqueda o plataformas de comercio, vemos que no se aplica una responsabilidad objetiva sino que, por el contrario, se recurre a la noción de culpa.[26] Entonces cuál será el criterio a utilizar para imponer responsabilidad por los daños generados como consecuencia del uso de sistemas de IA?[27]
Señalamos ya que, conforme las conclusiones de las últimas Jornadas Nacionales de Derecho Civil, la doctrina argentina se inclina por un factor objetivo de atribución, por lo que deberíamos aplicar el art. 1757 que asigna responsabilidad por el vicio o riesgo de la cosa o de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización. En este supuesto de responsabilidad objetiva, no son eximentes la autorización administrativa para el uso de la cosa o la realización de la actividad, ni el cumplimiento de las técnicas de prevención.
Por lo demás, este art. 1757 conserva el distingo entre el riesgo y el vicio, los que no son asimilables. El riesgo presupone la eventualidad posible de que una cosa llegue a causar daño, y el vicio un defecto de fabricación o funcionamiento que la hace impropia para su destino normal.
En el daño por riesgo o vicio de la cosa, no importa cuanta diligencia se demuestre porque, la única forma de esquivar la responsabilidad, es la demostración de la causa ajena. Al damnificado le basta con probar el daño y el contacto con la cosa dañosa, para que quede a cargo de la demandada, como dueña o guardiana del objeto riesgoso, demostrar la culpa de la víctima o de un tercero por quien no debe responder.
Además, como ya señalamos, el CCCN no solo prevé el riesgo o vicio de la cosa, sino que también incluye el riesgo de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización.[28] En tal caso es responsable quien por sí o por terceros realiza, se sirve u obtiene provecho de la actividad riesgosa o peligrosa y, conforme al art. 1722, solo serán eximentes el hecho del damnificado (art. 1729), el caso fortuito (art. 1730) siempre que sea extraño al riesgo o vicio propio de la cosa (art. 1733 inc. e), el hecho del tercero por quien no se debe responder ( art. 1731) siempre que reúna los caracteres de un caso fortuito o el uso contra la voluntad expresa o presunta del dueño.[29]
La diligencia no es suficiente para romper la cadena causal. Por eso ni la autorización administrativa ni las técnicas de prevención sirven para eximir de responsabilidad cuando el factor es objetivo. Quien empieza una actividad riesgosa, debe calcular entre sus costos, los daños que puede causar.
La carga de probar que la cosa o actividad es riesgosa o viciosa, recae sobre quien la invoca (art. 1734). La carga de la prueba de las eximentes recae sobre quien pretende eximirse (art. 1736). En relación a esto resultaría plenamente aplicable la doctrina de las cargas probatorias dinámicas, que consiste en imponer el peso de la prueba en cabeza de aquella parte que por su situación se halla en mejores condiciones de hacerlo, por sus conocimientos técnicos, por ejemplo. Esta teoría, incorporada en el artículo 1735 del CCCN, permitiría imponer la carga de probar que la actividad del agente dotado de IA no es riesgosa o peligrosa, a los desarrolladores, fabricantes, diseñadores y demás sujetos que lo han puesto en el mercado. Así se lograría un mayor equilibrio en la carga probatoria, especialmente en estos casos donde la parte perjudicada por el agente puede tener dificultades para la prueba de la relación causal.
Son sujetos responsables (art. 1758) del daño causado por la cosa o la actividad, el dueño y el guardián de la cosa (responsables concurrentes). Guardián es quien ejerce, por sí o por terceros, el uso, la dirección y el control de la cosa, o a quien obtiene un provecho de ella. El concepto de “guardián de la cosa o actividad” deba ser reinterpretado en el sentido de que, lo que lo hace que se genere responsabilidad es ese poder de vigilancia, gobierno o control de la cosa o de la actividad, tanto como el provecho que de ella se obtiene, aun cuando el usuario la entrene para fines diversos a los previstos por el desarrollador.[30]
En las actividades riesgosas el legitimado pasivo es quien realiza, ejecuta o desarrolla la actividad con un poder de dirección sobre ella, aunque sea desarrollada a través de otros. Son todos los que introducen el riesgo de la actividad respondiendo quien realiza la actividad, se sirve u obtiene provecho de ella, por sí o por terceros, excepto lo dispuesto por la legislación especial.
Entonces, la responsabilidad será objetiva, cuando se produzcan daños por la utilización de una cosa dotada de inteligencia artificial, como un robot o un vehículo autónomo, por ejemplo, o de una actividad riesgosa, porque se utilicen algoritmos, programas, se traten datos, etc- Los "riesgos o vicios" (o defectos del "producto") pueden provenir del diseño o desarrollo de la IA, lo que comprende los errores informáticos, los defectos en el entrenamiento —incluidos los casos de sesgos algorítmicos—, los derivados de la posibilidad de interconectividad, y los ocasionados por las sucesivas actualizaciones o versiones, entre otros.[31]
Esto permite abarcar la complejidad técnica que presentan los sistemas de IA que continúan actualizándose después de su introducción en el mercado y tienen capacidad de aprender, interactuar con su entorno y tomar decisiones.[32]
Como vimos antes, en las Jornadas de 2019 se incluyó a la utilización de la IA como una actividad riesgosa. Es que los SIA bien pueden ser consideradas actividades riesgosas o actividades peligrosas, más que nada por los medios empleados o por las circunstancias de realización.[33]
5.3. El daño
El daño es otro de los presupuestos y es definido por el art. 1737: “Hay daño cuando se lesiona un derecho o un interés no reprobado por el ordenamiento jurídico, que tenga por objeto la persona, el patrimonio, o un derecho de incidencia colectiva”. El daño patrimonial comprende, según el art. 1738 CCCN, “…la pérdida o disminución del patrimonio de la víctima, el lucro cesante en el beneficio económico esperado de acuerdo a la probabilidad objetiva de su obtención y la pérdida de chances. Incluye especialmente las consecuencias de la violación a los derechos personalísimos de la víctima, su integridad personal, su salud sicofísica, sus afecciones espirituales y las que resultan de la interferencia en su propio proyecto de vida” El artículo 1741 CCCN refiere al daño extra patrimonial. Obviamente cuando un sistema de IA genere un daño a una persona, la reparación deberá ser plena, conforme al art. 1740 CCCN.
5.4. La relación de causalidad
Y finalmente, para que se genere la obligación de reparar, debe existir una relación de causalidad adecuada entre el obrar antijurídico y el daño, esto es, un nexo causal (1726 y 1727 CCCN). Para imputar responsabilidad el Código distingue entre consecuencias inmediatas y mediatas, donde el criterio es la probabilidad de que suceda un hecho o la posibilidad de prever el resultado por parte del agente, de aquellas causales donde no se genera responsabilidad por la imposibilidad de preverlas.[34]
Recordemos que, en las Jornadas Nacionales de Derecho Civil del año 2024 ya mencionadas, se concluyó que las reglas de la causalidad adecuada son aplicables a los daños de la IA.
La prueba de esta relación de causalidad incumbe a la víctima, pero probada la intervención de la cosa o actividad en el daño producido, se presume la relación causal.
Justamente, cuando hablamos de responsabilidad por daños causados por la IA, estas normas podrían ser un problema, ante la eventualidad de que se produzcan daños que hayan sido imprevisibles.[35] De hecho, ni los propios desarrolladores saben exactamente cuáles son los riesgos ciertos de los sistemas que están desarrollando.[36] Estos daños podrían resultar “consecuencias mediatas no previsibles” y por tanto no resultar imputables conforme al art. 1726 CCCN. El debate entonces gira sobre la previsibilidad de los riesgos.[37] Es este elemento el que parecería que debe procurarse comprender, en cada caso concreto, conforme a si el daño ha sido causado por el programa originario de la máquina, del aprendizaje de ésta, o bien del uso que hace el dueño de la misma, teniendo en cuenta la posibilidad de estos agentes de interactuar y su autonomía, de la que resulta la imprevisibilidad de su actuación.[38] Y esto teniendo en cuenta que la responsabilidad de los que intervienen será concurrente.
Sin embargo, aun en estos casos de consecuencias imprevisibles, nuestro ordenamiento habilitaría a responsabilizar en forma objetiva por la cosa o la actividad riesgosa. Esto, recurriendo al art. 1733 CCCN, en tanto y en cuanto este artículo impone en algunos casos expresamente previstos, responsabilidad por fuerza mayor o caso fortuito. Nos referimos, específicamente, al inciso e) de este artículo 1733, que impide eximirse de responsabilidad cuando el caso fortuito constituye una contingencia propia del riesgo de la cosa o la actividad.[39] Sin dudas, en los casos de daños imprevisibles causados por los sistemas de IA, se trataría de un caso fortuito propio del riesgo de la actividad.[40]
Por lo demás, es preciso recordar que, al menos hasta ahora, la autonomía no implica una absoluta libertad puesto que los agentes dotados de IA, parecería que sólo pueden hacer aquello para lo que han sido programados.
6. El daño al consumidor
En las Jornadas Nacionales de Derecho Civil celebradas el año pasado en Pilar, se dijo que, en la medida en que haya un proveedor profesional y un usuario en los términos de la ley 24240, esta resulta aplicable en general y en particular el art. 40 LDC. Este art. 40, establece que si el daño al consumidor resulta del vicio o riesgo de la cosa o de la prestación del servicio, responderán el productor, el fabricante, el importador, el distribuidor, el proveedor, el vendedor y quien haya puesto su marca en la cosa o servicio. La responsabilidad es solidaria sin perjuicio de las acciones de repetición. Solo se liberará total o parcialmente quien demuestre que la causa del daño le ha sido ajena.
En el caso de los Sistemas de IA, serían legitimados pasivos por el control y organización, todos los integrantes de la cadena tales como fabricantes, productores, importadores, programadores, desarrolladores, proveedores y usuarios.
Como vimos, la ley de protección de los derechos del consumidor en su art. 40 refiere a los daños derivados del "riesgo o vicio de la cosa o de la prestación del servicio". La amplitud de esta norma permite resolver las consecuencias dañosas derivadas del uso de la IA. Puede tratarse de un defecto de diseño o de fabricación, de programación y también de información en cuanto a su uso y los riesgos que presenta. También podrían surgir de su actualización, de fallas en la función de autoaprendizaje o en las decisiones erróneas que adopte el sistema.
Esto aunque, en los hechos, puede resultar difícil identificar el origen de la falla, teniendo en cuenta que en determinados casos ni los desarrolladores pueden explicar las razones por las cuales un sistema dotado de IA hace lo que hace. Por eso en el elenco de responsables de los daños causados por Sistemas de IA surgen nuevos eslabones como son los programadores y desarrolladores, que son los actores que diseñan, construyen, entrenan, adaptan y combinan modelos y aplicaciones. Sin embargo, siempre que no sea posible identificar al autor del daño, todos los eslabones de la cadena deberán responder frente a la víctima en forma solidaria.
Es que los sistemas de IA no son un simple producto ya terminado que se introduce en el mercado, sino que por el contrario son productos que continúan actualizándose, recopilando datos, aprendiendo e interactuando. Conforme a esto, el término producto debe ser interpretado con amplitud, de forma que comprenda al fenómeno de la IA. y pueda aplicársele la responsabilidad prevista en el art. 40 de la LDC. Los "vicios o riesgos" (o defectos), pueden provenir del diseño o desarrollo de la IA, lo que abarca los errores informáticos, los defectos en el entrenamiento —incluidos los casos de sesgos algorítmicos—, los derivados de la posibilidad de interconectividad, y los ocasionados por las sucesivas actualizaciones o versiones, entre otros.[41]
La amplitud mencionada del art. 40 de la ley de protección al consumidor permite proteger al usuario de IA no profesional, o sea aquel que le da un uso personal, sin incorporar a una actividad comercial o empresarial. Este usuario final debe actuar según las instrucciones recibidas, siempre que haya sido debidamente informado al respecto ya que, conforme al Art. 4º. de la L. 24.240 “El proveedor está obligado a suministrar al consumidor en forma cierta, clara y detallada, todo lo relacionado con las características esenciales de los bienes y servicios que provee, y las condiciones de su comercialización”. Máxime en estos casos donde, en los hechos, será el consumidor el encargado de supervisar y controlar una tecnología que desconoce y que, además, resulta imprevisible por su autonomía y evolución constante, merced a sus actualizaciones automáticas. Por tal razón es tan necesaria la aplicación de esta protección especial.
7. Conclusiones
Es necesario encontrar un consenso acerca de cómo diseñar una regulación de las consecuencias de la IA en el derecho privado. Esta regulación no debe perder de vista la visión global del problema, así como la necesaria flexibilidad que debe tener para adaptarse a los futuros avances tecnológicos.
El responsable del daño debe ser siempre una persona, humana o jurídica, ya que los sistemas de IA no tienen personalidad jurídica, ni parecería ser conveniente otorgárselas.
Mientras no exista esta regulación, nuestro sistema legal de responsabilidad civil nos permite afrontar los daños que pudieren producirse, Esto ya sea recurriendo a los arts. 1757 y 1758 CCCN o bien, en el supuesto de que el damnificado sea un consumidor, al art. 40 de la ley 24.240.[42]
El factor de atribución de la responsabilidad civil por daños producidos por sistemas de IA debe ser objetivo, pero sin excluir que se puedan acumular factores de atribución subjetivos en forma concurrente. Por ejemplo, en daños provocados por un vehículo autónomo, podría imputarse responsabilidad objetiva al dueño o guardián del vehículo y subjetiva al conductor si fue negligente al no supervisar la conducción, y siempre que ésta haya sido posible y debidamente informada.[43]
Dada la capacidad de los sistemas de IA, el guardián de la misma responderá aún en el caso de consecuencias imprevisibles ya que las mismas no serían ajenas al riesgo de la actividad que desarrolla y de la que se aprovecha, todo en los términos del art. 1733 inc. e).
Referencias bibliográficas
ABOSO, Gustavo E. La responsabilidad penal derivada del uso de automóviles autónomos, con especial referencia a la nueva regulación francesa. Publicado en: Sup. Innovación y Derecho 2022 (febrero) , 1. LA LEY 2022-B. Cita: TR LALEY AR/DOC/3676/2021.
ALVAREZ LARRONDO, Federico M. El bienestar de la inteligencia artificial. Proyectando la IA consciente. Publicado en: LA LEY 21/03/2025 , 1. Cita: TR LALEY AR/DOC/587/2025.
AZAR, Azar, Aldo M. Responsabilidad por los sistemas de inteligencia artificial en entornos virtuales, aplicaciones, sitios de internet y plataformas digitales. La configuración de un nueva obligación de seguridad por daños a derechos personalísimos, datos personales y atributos de la personalidad a la luz de los tratados de derechos humanos. Publicado en: RCCyC 2024 (Septiembre-Octubre) , 75. Cita: TR LALEY AR/DOC/1983/2024.
BARBERO, Chiara, DALMASSO, Ana, FISSORE, Andrea, PANERO, Angelo. Minacce allá sicurezza nei sistema di intelligenza artificiale: sfide regolatorie e risposte nell’ Unione Europea. Italia. Publicado en Revista de Derecho Empresario- Nro. 12 – junio 2025. 01-06-2025. Cita: IJ-VI-CCXIV-483.
COLOMBO, María Celeste. La responsabilidad civil derivada del uso de algoritmos en el derecho de consumo. Publicado en: EBOOK-TR 2023 (Colombo), 43. Cita: TR LALEY AR/DOC/767/2023.
COLOMBO, María Celeste La actividad del usuario de los sistemas de IA como eximente de responsabilidad. Publicado en: LA LEY 14/02/2025, 8. Cita: TR LALEY AR/DOC/267/2025.
CRUZ BORELLO, Julián y ABDELNABE VILA, Carolina. Regular no puede sucumbir al miedo: ¿Realmente es necesario en Argentina una regulación para la inteligencia artificial? Publicado en: RCCyC 2025 (abril) , 57. Cita: TR LALEY AR/DOC/551/2025.
DANESI, Cecilia C. Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos. Publicado en: Sup. Esp. LegalTech 2018 (noviembre), 39. Cita: TR LALEY AR/DOC/2374/2018.
FAVIER DUBOIS, Eduardo M. Inteligencia artificial, robótica y derecho comercial. Panorama, impactos y desafíos. Publicado en: LA LEY 10/10/2024, 1. LA LEY 2024-E, 286- Cita: TR LALEY AR/DOC/2477/2024.
FERRERO, Ausonia. La propuesta de la Comisión Europea para un marco legal de inteligencia artificial: desafíos éticos, privacidad, seguridad e implicaciones para la industria en la Unión Europea. Italia. Revista de Derecho Empresario. Nro. 12-junio 2025. Fecha: 01-06-2025. Cita IJ-VI-CCXIV-210.
GALDÓS, Jorge Mario "La responsabilidad civil (análisis exegético, doctrinal y jurisprudencial, arts. 1708 a 1780 CCyC), Rubinzal-Culzoni, Santa Fe, 2021, 1ª ed. revisada., t. 1.
GALDÓS, Jorge M., VALICENTI, Ezequiel “Responsabilidad civil derivada de la inteligencia artificial y los sistemas inteligentes”. Publicado en: LA LEY 18/02/2025, 1. Cita: TR LALEY AR/DOC/270/2025.
GIL DOMÍNGUEZ, Andrés, "Inteligencia artificial: posibles modelos de regulación y gestión", en La Ley 03/07/2024, 1, TR LALEY AR/DOC/1688/2024.
GUIBOURG, Ricardo A. Castigar al robot malo. Publicado en: LA LEY 01/12/2023 , 5. Cita: TR LALEY AR/DOC/2910/2023.
IMIRIZALDU, Horacio Daniel: Inteligencia Artificial. Los riesgos de la recopilación de datos biométricos. Publicado en: SJA 07/06/2024 , 1. JA 2024-II , 177. Cita: TR LALEY AR/DOC/1220/2024.
NEGRI, Nicolás J. y GUERRERO, Pablo N. Inteligencia artificial. ¿Colapso del sistema maestro de responsabilidad civil? Publicado en: RCCyC 2024 (Septiembre-Octubre) , 57. Cita: TR LALEY AR/DOC/1979/2024.
LAJE, Alejandro y SCHMIDT, Klaus. La Racionalidad de la Inteligencia Artificial. Publicado en: LA LEY 30/10/2024 , 1. LA LEY 2024-E , 571. Cita: TR LALEY AR/DOC/2714/2024.
PIZARRO, Ramón Daniel - VALLESPINOS, Carlos Gustavo, "Manual de responsabilidad civil", Rubinzal Culzoni, Santa Fe, 2019.
QUIÑONES, María Constanza. Daños derivados de la inteligencia artificial. Publicado en: LA LEY 10/10/2024, 1. LA LEY 2024-E, 305. LLO.Cita: TR LALEY AR/DOC/2478/2024.
ROSATI, Florencia y LAMARCA VIDAL, Mariana Los retos legales de la inteligencia artificial en ChatGPT. Descifrando el futuro. Publicado en: LA LEY 10/05/2023, 1. LA LEY 2023-C, 74. Cita: TR LALEY AR/DOC/1074/2023.
SAUX, Edgardo Ignacio. Tratado de Derecho Civil Parte General. T. III. Ed. Rubinzal Culzoni, Santa Fe 2018.
TRAVIESO, Juan Antonio. Las personas jurídicas en el nuevo derecho y tecnología. Bienvenidos los robots. Publicado en: Sup. Esp. LegalTechII 2019 (noviembre), 79. Cita: TR LALEY AR/DOC/3579/2019.
SHINA. Fernando E. Desarrollo Tecnológico y responsabilidad. Los nuevos desafíos del derecho. Publicado en: RCCyC 2019 (mayo) , 138 Cita: TR LALEY AR/DOC/828/2019, pág. 144 y 145.
THOMAS, Gustavo J. Responsabilidad civil del Estado por el uso de IA 3.0 y 4.0 (autónoma). Publicado en: LA LEY 11/11/2024, 1 • LA LEY 2024-F, 45 Cita: TR LALEY AR/DOC/2883/2024.
VANINETTI, Hugo A. Inteligencia artificial aplicada a la seguridad. Publicado en: LA LEY 30/10/2024 , 1 • LA LEY 2024-E , 581. Cita: TR LALEY AR/DOC/2715/2024.
WIERZBA, Sandra M. Responsabilidad civil y automatización: hacia nuevos paradigmas. Publicado en: LA LEY 02/08/2023 , 1. LA LEY 2023-D , 264.Cita: TR LALEY AR/DOC/1602/2023.
YORLANO, Elian Facundo. Robots creativos? El derecho de autor en las obras artísticas creadas por IA. Publicado en: LA LEY 05/05/2022 , 1. Cita: TR LALEY AR/DOC/1453/2022.
Notas
En general, y al día de hoy, la proliferación de actividades –lícitas- que generan riesgos, y que por ende están vinculadas a un factor objetivo de atribución, no pueden ser calificadas como antijurídicas, pero cuando ellas causan un daño la obligación de resarcirlo deviene incontrovertible, porque aunque no haya un reproche conductista, hay un daño injustamente sufrido, y el riesgo del daño debe ser asumido por quien crea el riesgo con la conducta, aún lícita.” SAUX, Edgardo Ignacio. Tratado de Derecho Civil Parte General. T. III. Ed. Rubinzal Culzoni, Santa Fe 2018, págs. 283 y 284.
“Un criterio similar se propone para el caso de las plataformas comerciales, sosteniéndose que, de aplicarse un estándar objetivo, se las forzaba a "controlar los millones de publicaciones y transacciones que son realizadas diariamente, para evitar el riesgo económico de tener que responder por cualquier daño pasado, presente y futuro", generando perjuicios y desincentivos económicos.” WIERZBA, Sandra M. Responsabilidad civil y automatización: hacia nuevos paradigmas. Publicado en: LA LEY 02/08/2023, 1 • LA LEY 2023-D, 264.Cita: TR LALEY AR/DOC/1602/2024.
Se debe aquí atribuir un criterio de imputación objetiva, donde no podemos recurrir a los criterios de la causalidad adecuada, dado que no podemos encontrar la causa adecuada del daño ante un sistema tan complejo como el de la IA. La responsabilidad entre aquellos que intervienen en la cadena será concurrente, de manera que así se pueda otorgar mayor protección a la víctima, a la persona humana, que es el centro del ordenamiento jurídico. Ante un caso de responsabilidad civil por un daño causado por la IA son aplicables las reglas de la responsabilidad por actividades riesgosas y no las de las cosas riesgosas, siendo la IA un objeto inmaterial. Se trata de parámetros que quienes desarrollan esta actividad deben tener presentes, lo que influirá mucho en las medidas de desarrollo de esta actividad, dadas las externalidades positivas y negativas que implican el criterio de atribución objetivo y la responsabilidad concurrente. Empero, el ordenamiento jurídico debe también tener cuidado en no ser restrictivo en el desarrollo de esta actividad, dada su gran importancia en la sociedad y el siguiente desarrollo del ser humano. QUIÑONES, María Constanza. Daños derivados de la inteligencia artificial. Publicado en: LA LEY 10/10/2024, 1. LA LEY 2024-E, 305. LLO.Cita: TR LALEY AR/DOC/2478/2024.
Declaración de intereses

