«Quid», ¿por qué? — Así concluía sus obras el filósofo y médico gallego Francisco Sánchez de Sousa, abogando por el examen directo de las cosas y la evaluación crítica de la experiencia.
¿Qué pensaría este gran filósofo si supiera que hoy día podemos tomar decisiones de diversa índole a través de herramientas de inteligencia artificial? La realidad es que esto ya no es solo una posibilidad. El avance de la inteligencia artificial ha sido vertiginoso, y ahora nos encontramos no solo con asistentes en la toma de decisiones, sino con herramientas de IA, como el conocido chat GPT, capaces de tomar decisiones autónomas basadas en la información con la que han sido alimentadas. Esto marca el paso de la inteligencia artificial tradicional, que utiliza datos para la toma de decisiones, a la inteligencia artificial generativa, capaz de tomar decisiones propias de manera similar a los humanos.
Hasta el momento, los esfuerzos regulatorios se han centrado en proteger a los usuarios de estas herramientas, estableciendo normativas para un uso responsable, seguro y la protección de la confidencialidad de los datos.
Sin embargo, persiste un desafío clave: la creación de un marco normativo común sobre la responsabilidad civil derivada del uso de estas herramientas. La Comisión Europea ha propuesto un paquete normativo que incluye la conocida Ley de Inteligencia Artificial, junto con otras dos normativas sobre responsabilidad. Estas normativas defienden un régimen que combina la responsabilidad objetiva y subjetiva. La propuesta de modificación de la Directiva sobre Productos Defectuosos y la Propuesta de Directiva relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial son parte integral de este paquete, datadas en abril de 2023.
Este marco normativo busca evitar malos usos de la inteligencia artificial y establecer un sistema armonizado para exigir responsabilidad por los daños causados por su uso. Sus objetivos principales incluyen concebir un marco jurídico horizontal y armonizado basado en principios comunes, así como la remisión a técnicas que alivien la carga de la prueba y el nexo de causalidad.
Aunque este triple marco normativo aún espera su aprobación definitiva, uno de los retos cruciales para la Comisión es lograr un marco común, dentro de sistemas de responsabilidad diversos, que pueda abordar de manera efectiva la responsabilidad civil derivada del uso de sistemas de inteligencia generativa.
Autor: INESE
Información: Proporcionada por DAC Beachcroft