A partir del 2 de febrero comenzaron a ser aplicables los capítulos I y II del Reglamento Europeo de IA, es decir, sus cinco primeros artículos, que incluyen las disposiciones generales (objeto, ámbito de aplicación y definiciones), más el establecimiento de la obligación de alfabetización en materia de IA de los proveedores y responsables del despliegue de los sistemas de IA, y las prácticas de IA que están expresamente prohibidas.
En fechas sucesivas -2 de agosto de 2025 y 2 de agosto de 2027- serán aplicables otras disposiciones del Reglamento.
Pilares de la regulación
La regulación se basa en tres pilares:
- La IA debe ser lícita, en suma, debe cumplir todas las leyes y reglamentos que le sean aplicables.
- Ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos.
- Debe ser robusta, tanto desde el punto de vista técnico como social, dado que los sistemas de IA, pueden provocar daños y perjuicios directos e indirectos que pueden evitarse con el control de sus riesgos.
El panorama mundial
Mientras que la Unión Europea ha cumplido las tareas regulatorias del marco legal, asistimos a un panorama mundial en el que la inteligencia artificial generativa que viene de China ha puesto en jaque a los gigantes tecnológicos norteamericanos, causando miles de millones de dólares de pérdidas de valor bursátil, con la mayor caída diaria sufrida por una empresa -Nvidia- en toda la historia de la bolsa. EE.UU. y China pugnan por una inteligencia artificial más eficiente y sobre todo mucho más barata, mientras que la Unión Europea asiste impotente a la competencia entre ChatGPT y DeepSeek y se pregunta por la falta de un proyecto europeo de IA que esté a la altura de las alternativas existentes. Todo ello no deja de causar recelo en los usuarios europeos al considerar las opciones existentes en la actualidad como auténticos Caballos de Troya que tarde o temprano desvelarán el contenido de las cajas negras que alojan en su interior.
¿Cómo gestionar los riesgos de la IA?
AGERS ha publicado las conclusiones emitidas por la Comisión de Riesgo Tecnológicos -RISK LAB- de la asociación. En este trabajo se resaltan las claves de la gestión de estos riesgos que permite poner en el centro al ser humano y los principios éticos que deben considerarse los fines últimos y valores esenciales sobre el que pivotará la integración responsable de la IA en nuestras organizaciones.
El Reglamento europeo de IA desempeña un papel crucial en la promoción del principio de seguridad jurídica al establecer normas claras y precisas para regular el uso de la IA. Además, garantiza los derechos de los usuarios al establecer medidas de protección y transparencia que promueven la confianza en esta tecnología emergente no exenta de riesgos que deben gestionarse adecuadamente.
Gonzalo Iturmendi Morales