La Unión Europea ha votado este miércoles a favor de la primera Ley de Inteligencia Artificial del mundo. Una ley ampliamente demandada por los expertos, que ven cómo los peligros de esta nueva tecnología podrían afectar a la ciudadanía. Con 499 votos a favor, 28 en contra y 93 abstenciones, finalmente, la ley ha salido adelante. No ha sido un camino fácil, y es que, al tratarse de un tema tan sensible y novedoso, se han presentado unas 4.000 enmiendas, según ha informado el Parlamento Europeo, por lo que la propuesta inicial ha sido ligeramente ampliada este miércoles. Tras esta votación, el siguiente paso es la negociación con el Consejo.
Con esta ley, desde Europa se busca establecer un marco jurídico uniforme para el desarrollo, la comercialización y el uso de la inteligencia artificial “de conformidad con los valores de la unión”. Algunos países ya cuentan con normativa para regular la IA, pero con esta ley, la UE busca un marco común para aumentar la seguridad y la protección de toda la ciudadanía. Las reglas que se han aprobado siguen un enfoque basado en riesgos y establecen obligaciones para proveedores y usuarios, dependiendo de estos niveles de riesgo que presenten las distintas tecnologías. Así, la regulación será mayor o menor dependiendo de los distintos de “peligro”.
De manera más específica, esta regulación pasaría por garantizar que los sistemas de IA introducidos en el mercado de la Unión “sean seguros y respeten la legislación vigente sobre los derechos fundamentales y los valores de la Unión”. Igualmente, se busca garantizar la seguridad jurídica para facilitar la inversión y la innovación en estas tecnologías. Con la normativa también se mejorará la gobernanza y la aplicación efectiva de la legislación existente sobre derechos fundamentales y requisitos de seguridad. Finalmente, se facilitará el desarrollo de un mercado único para aplicaciones de IA “lícitas, seguras y fiables y evitar la fragmentación del mercado”, se ha explicado.
Con 499 votos a favor, 28 en contra y 93 abstenciones, finalmente, la ley ha salido adelante
La regulación, como ya se ha mencionado, se establecerá en función de varios niveles de riesgo: inaceptable, alto y limitado. Además, también se hace referencia a IA generativa (por ejemplo, ChatGPT). “Aunque muchos sistemas de IA plantean un riesgo mínimo”, se remarca, “es necesario evaluarlos todos”.
En el nivel de riesgo inaceptable engloba a las tecnologías de Inteligencia Artificial que se consideran una amenaza para las personas. Este tipo de IA estará directamente prohibida. Incluiría la tecnología de manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos. Por ejemplo, serían de este tipo los juguetes activados por voz que fomentan comportamientos peligrosos en los niños. También se prohibirán la tecnología de “puntuación social”, es decir, las que clasifican a las personas en función de su comportamiento, estatus socioeconómico o características personales. También estarán prohibidos los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial. En este caso concreto sí que existen algunas excepciones. Por ejemplo, los sistemas de identificación biométrica a distancia "a posteriori", en los que la identificación se produce tras un retraso significativo, se permitirán para perseguir delitos graves y sólo cuando haya previa aprobación judicial.
Durante la votación de hoy, los eurodiputados han ampliado la lista propuesta por la Comisión Europea, añadiendo prohibiciones que se refieren a los usos intrusivos y discriminatorios de la IA, como por ejemplo: los sistemas de identificación biométrica remota, en tiempo real o no, en espacios públicos; los sistemas de categorización biométrica que utilicen ciertas características identitarias (por ejemplo el género, la raza, la etnia, el estatus de ciudadanía, la religión o la orientación política); los sistemas policiales predictivos (basados en la elaboración de perfiles, la ubicación o el historial delictivo); los sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza; y el rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial (que violan los derechos humanos y el derecho a la intimidad).
En el nivel de riesgo inaceptable engloba a las tecnologías de Inteligencia Artificial que se consideran una amenaza para las personas. Este tipo de IA estará directamente prohibida
El nivel de riesgo alto agrupa a los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales. Este nivel además tiene dos categorías. En la primera estarían los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos, donde entran juguetes, aviación, automóviles, dispositivos médicos y ascensores. En la segunda categoría del grupo de alto riesgo encontramos los sistemas que pertenezcan a los siguientes ámbitos, y que deberán registrarse en una base de datos de la UE: identificación biométrica y categorización de personas físicas; gestión y explotación de infraestructuras críticas; educación y formación profesional; empleo, gestión de trabajadores y acceso al autoempleo; acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas; aplicación de la ley; gestión de la migración, el asilo y el control de fronteras; y asistencia en la interpretación jurídica y aplicación de la ley. En ambas categorías de los sistemas de alto riesgo, las IAs serán evaluadas antes de su comercialización y a lo largo de su ciclo de vida.
Los eurodiputados han añadido, además, durante la sesión de este miércoles, los sistemas de IA que puedan afectar significativamente al medio ambiente o a la salud, la seguridad o los derechos fundamentales de las personas. Se han añadido a la lista los sistemas de IA utilizados para influir en los votantes y el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de redes sociales (con más de 45 millones de usuarios).
En cuanto a los sistemas de IA de riesgo limitado, deberán cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Además, tras interactuar con las aplicaciones, el usuario podrá decidir si desea seguir utilizándolas y se les deberá hacer conocedores de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes).
El nivel de riesgo alto agrupa a los sistemas de IA que afecten negativamente a la seguridad, a los derechos fundamentales, al medio ambiente o a la salud
En el caso de los sistemas aplicados a la salud, se podrán seguir utilzando bajo estos parámetros de riesgo. La IA aplicada a la salud, de hecho, "ofrece grandes expectativas para mejorar la prestación de atención y la medicina en todo el mundo, siempre y cuando la ética y los derechos humanos ocupen un lugar central en su concepción, despliegue y utilización", afirmaba la OMS. Dentro del campo sanitario, podemos encontrar algunos ejemplos de IA en el diagnóstico, la mejora de la calidad de vida de mayores y dependientes, el seguimiento y de pacientes crónicos, el desarrollo de nuevos fármacos o la investigación de enfermedades.
Los sistemas de IA generativa, como ChatGPT, tendrán que cumplir unos requisitosadicionales de transparencia. Entre ellos, deberán identificar el contenido como generado por IA, para ayudar, entre otras cosas, a distinguir las falsificaciones de las imágenes auténticas, y estar diseñados de forma que no puedan generar contenido ilegal. Además, deberán publicarse resúmenes detallados de los datos protegidos por derechos de autor que han sido utilizados para su desarrollo.
Para impulsar la innovación en IA y apoyar a las pymes, los eurodiputados han incluído como excepciones los proyectos de investigación y los componentes de IA suministrados con licencias de código abierto. Así, se promueven los “espacios controlados de pruebas", o entornos reales en los que las empresas pueden probar la inteligencia artificial bajo la supervisión de las autoridades públicas antes de salir al mercado. Asimismo, para que los ciudadanos puedan reclamar si lo consideran necesario, se ha propuesto facilitar estos trámites. Los eurodiputados también han reformado el papel de la Oficina Europea de Inteligencia Artificial, que se encargaría de supervisar la forma en que se aplica el código normativo sobre IA.