El Parlamento Europeo acaba de dar luz verde en la votación a la aprobación de su primer Reglamento de Inteligencia Artificial. Con el precedente del libro blanco publicado en 2020 y propuesto 0ficialmente por la Comisión Europea en abril de 2021, el devenir de los acontecimientos desde que ChatGPT y compañía llegaron a nuestras vidas dio más sentido a su tramitación.
Con 523 votos a favor, 46 en contra y 49 abstenciones, la Ley de IA europea ya es una realidad. No hay precedentes similares a esta nueva Ley en otras regiones, así que desde el Parlamento Europeo consideran que este texto no es solo un nuevo marco legal, sino también un referente mundial para regulaciones similares en otros territorios, que de hecho ya están preparando sus marcos regulatorios.
Dos objetivos y cuatro niveles de riesgo
Este primer marco regulador de la Unión Europea para la Inteligencia Artificial tiene dos objetivos principales que marcan cómo se debe encarar esta disciplina en territorio europeo, un ying yang que busca lograr el equilibrio entre innovación y protección.
- Seguridad para la ciudadanía, garantizando que los sistemas de IA usados en la UE e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos.
- Estimular la inversión y la innovación en el ámbito de la IA en Europa.
Además, la institución hace un matiz importante que sirve como aviso para navegantes: «La ley regulará la IA en base a sus riesgos. Cuanto mayor sea el riesgo, más estrictas serán las normas». Un mantra que ha marcado todo el texto.
Lo primero es determinar qué es una IA y qué no. Aunque suene sencillo a nivel técnico, es importante definir bien qué distingue a una IA de otros software más sencillos, estableciendo criterios claros para entender a quién aplica la nueva Ley. Y la definición escogida es la que proporciona la OCDE:
La OCDE define un sistema de IA como un sistema basado en una máquina que, para un conjunto dado de objetivos definidos por el ser humano, hace predicciones, recomendaciones o decisiones que influyen en entornos reales o virtuales.
La Ley también tiene otros matices: no se aplica a ámbitos fuera del ámbito de aplicación del Derecho Europeo y no afectará a las competencias de los Estados miembros en materia de seguridad nacional. Tampoco a los sistemas usados exclusivamente con fines militares o de defensa ni a los empleados con fines «de investigación e innovación», dando así más cancha tanto a la seguridad nacional de cada país como al I+D.
La mirada a largo plazo de esta Ley deja una incógnita, y es si el salto cuántico que en algún momento llegará podría dejarla obsoleta. «Hay que pensar en los saltos cuánticos que se pueden dar en esta tecnología, hay que pensar en cuando esa tecnología nos sorprenda con su capacidad: tendremos algún tipo de inteligencia generada artificialmente y ahí tendremos que pensar en las consecuencias morales de esa evolución», ha explicado en el Parlamento Europeo Dragoş Tudorache, del partido liberal Renew y presidente del comité especial de IA.
«Hay que conseguir que aterrice este conjunto de normas. Necesitamos conseguir una armonía en la aplicación. Después de las elecciones, en la nueva legislatura, tendremos que abrir una vía de aplicación y ofrecer certidumbre a los ciudadanos europeos», ha añadido Tudorache.
Este marco regulatorio ha sido desarrollado en medio de numerosas presiones. Brando Benifei, uno de los miembros del comité especial de IA, del partido socialdemócrata S&D, ha admitido que ha recibido «muchas presiones en materia de derechos de autor», en referencia no solo a las grandes tecnológicas, sino también a la industria audiovisual.
En esta nueva Ley también se han establecido varios criterios horizontales de protección para determinar cuándo un sistema de IA puede causar daños a la sociedad: si se detecta uno que encaje en estos criterios, estará supeditado a varios requisitos y obligaciones para poder acceder al mercado europeo.
Dentro de quienes caigan en ese lado de la defnición, los que sean considerados como «riesgos inaceptables» quedarán directamente prohibidos. La UE ha puesto algunos ejemplos de casos así: los sistemas orientados a la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales extraídas de la Web.
Es decir, la prohibición del uso de IA para la manipulación o la vigilancia masiva. Los considerados como una amenaza para la seguridad y los derechos de las personas. Las únicas excepciones, muy delimitadas y procotolizadas, tienen que ver con usos de extrema urgencia que requieren una autorización judicial.
Los sistemas de IA que supongan un riesgo alto estarán sometidos a estrictos requisitos y certificaciones, y no podrán comercializarse hasta que el organismo regulador les dé su aprobación. Y si durante el ciclo de vida de dicho sistema se le aplican cambios relevantes, tendrán que volver a pasar todo el trámite antes de ponerlo en el mercado.
Los de riesgo limitado solo están sometidos a requisitos de etiquetado para aclarar que se trata de sistemas de IA, y los de riesgo mínimo tienen permitido el uso libre sin requisitos ni obligaciones.