Close
Type at least 1 character to search
Back to top
La palabra "justicia" escrita de manera digital en un muro

La responsabilidad civil derivada del uso de la IA: desafíos para el derecho del siglo XXI

1. Introducción

La inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en un elemento omnipresente en múltiples aspectos de nuestra vida cotidiana: desde algoritmos que predicen nuestro comportamiento hasta vehículos que pueden conducirse sin intervención humana. Ante este nuevo escenario, surge inevitablemente una pregunta fundamental: ¿qué ocurre cuando un sistema de IA causa un daño? ¿Quién debe responder civilmente por las consecuencias perjudiciales de su actuación?

Frente a tecnologías que actúan de forma autónoma, los mecanismos clásicos de responsabilidad civil se enfrentan a limitaciones importantes. Nuestro ordenamiento, centrado tradicionalmente en la culpa como elemento esencial para la imputación de responsabilidad (art. 1902 del Código Civil), no está diseñado para situaciones donde el daño puede surgir sin intervención humana directa.

 

2. Un marco legal en construcción

A día de hoy, no existe en España una ley específica que regule de forma íntegra la responsabilidad civil derivada del uso de sistemas de inteligencia artificial. Esto obliga a aplicar normas generales, como la responsabilidad por productos defectuosos o los principios tradicionales del derecho civil, lo que genera inseguridad jurídica y respuestas fragmentadas.

La Unión Europea, consciente de este vacío, ha dado pasos importantes hacia una regulación armonizada. Entre ellos destacan la Resolución del Parlamento Europeo de octubre de 2020 y el reciente Reglamento (UE) 2024/1689, que sientan las bases para un modelo normativo centrado en la transparencia, seguridad y trazabilidad de los sistemas de IA, especialmente aquellos considerados de “alto riesgo”.

 

3. ¿Responsabilidad objetiva o culpa?

Uno de los puntos más debatidos es el tipo de responsabilidad aplicable. El criterio general sigue siendo el de la culpa, como establece el Código Civil, pero cada vez gana más fuerza la idea de introducir modelos de responsabilidad objetiva en determinados supuestos. Este sería el caso de tecnologías que, por su naturaleza o autonomía operativa, implican un riesgo elevado, como los sistemas de conducción autónoma o los algoritmos utilizados en decisiones médicas o financieras.

En esos casos, se propone que la persona que introduce el riesgo —ya sea el operador, desarrollador o empresa que explota el sistema— asuma la responsabilidad, con independencia de que exista o no negligencia. Ello no solo facilitaría la protección de las víctimas, sino que respondería mejor a las particularidades de estas tecnologías.

 

4. La dificultad probatoria y las nuevas herramientas procesales

Una de las barreras más importantes para las víctimas de daños causados por IA es la dificultad para probar la existencia de una relación de causalidad entre el funcionamiento del sistema y el daño sufrido. Por ello, la propuesta europea incluye mecanismos procesales novedosos, como el derecho a solicitar la exhibición de pruebas antes de presentar una demanda, y la introducción de presunciones de causalidad cuando se acredite que el operador o fabricante ha incumplido deberes legales de diligencia.

Esto no elimina por completo la necesidad de prueba, pero sí traslada parte de la carga al demandado, quien deberá demostrar que su actuación fue diligente o que el daño no tuvo relación con el sistema de IA en cuestión.

 

5. Hacia un sistema preventivo, justo y adaptado

Para el futuro próximo, se vislumbra la necesidad de establecer un régimen combinado: por un lado, una responsabilidad objetiva para sistemas de alto riesgo; por otro, una basada en la culpa para usos ordinarios o con supervisión humana. A ello se sumaría la exigencia de seguros obligatorios, tal como sucede en otros ámbitos de riesgo, con la posibilidad de crear fondos públicos de garantía para cubrir daños cuando no exista un responsable claramente identificable.

En cualquier caso, resulta evidente que el desarrollo de la inteligencia artificial exige un replanteamiento profundo de las categorías tradicionales del derecho de daños. No se trata únicamente de ajustar unas normas, sino de garantizar que el progreso tecnológico no implique una merma de derechos para los ciudadanos.

 

6. Conclusión

La IA plantea un desafío mayúsculo para el derecho civil, que no puede seguir aplicando sin más reglas concebidas para relaciones humanas directas. Nos encontramos ante una tecnología que actúa con autonomía, toma decisiones y, en ocasiones, produce consecuencias lesivas que no se pueden atribuir fácilmente a una sola persona. Por ello, urge avanzar hacia un marco normativo europeo común que permita ofrecer respuestas claras, justas y equilibradas, tanto para proteger a las víctimas como para no frenar el desarrollo tecnológico.

El equilibrio entre innovación y responsabilidad será, sin duda, uno de los retos jurídicos centrales de las próximas décadas.

 

Lucía RomeoOn Tax & Legal

Descargar artículo en PDF