Los 27 Estados comunitarios y el Parlamento Europeo han llegado finalmente, tras varios días de intensas negociaciones, a redactar un texto final de la ley europea de inteligencia artificial (IA), aunque todavía deberá ser ratificado por las dos partes antes de entrar en vigor, previsiblemente a finales de 2026. Un documento que recoge las obligaciones y normas por las que deberá regirse una tecnología que ha conseguido adaptarse a cualquier mercado y que junto con una amplia gama de ventajas trae consigo una serie de peligros.
“Si se utiliza de manera inteligente y amplia, la IA promete enormes beneficios para nuestra economía y sociedad. Por lo tanto, acojo con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre la ley de inteligencia artificial”, señaló Ursula von der Leyen, presidenta de la Comisión Europea, tras anunciarse el acuerdo.
En el caso del sector sanitario, uno de los más involucrados y acostumbrados a contar con esta tecnología en múltiples procesos, podrá seguir la IA, aunque siempre bajo los parámetros de riesgo
Precisamente la aprobación de esta ley que quiere convertirse en una referencia o estándar, ya que se trata del primer continente que cuenta con reglas de este tipo, se postulaba como una de las prioridades de España y su Presidencia del Consejo de la UE, que acaba este mes de diciembre. “El reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos”, han asegurado desde la cuenta de X de la Presidencia española del Consejo de la UE.
USO ÉTICO EN EL SECTOR SANITARIO
En el caso del sector sanitario, uno de los más involucrados y acostumbrados a contar con esta tecnología en múltiples procesos, podrá seguir la IA, aunque siempre bajo los parámetros de riesgo. Precisamente desde la Organización Mundial de la Salud (OMS) han destacado que la IA ofrece “grandes expectativas” para mejorar la prestación de atención y la medicina, siempre y cuando la ética y los derechos humanos “ocupen un lugar central en su concepción, despliegue y utilización”.
En cuanto a este marco ético, la OMS también ha manifestado su inquietud ante la adopción “precipitada de sistemas no comprobados”, que podría “inducir a errores por el personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo”. Así, en la aplicación de la ley se deberá tener en cuenta el sesgo de los datos, la corrección de las respuestas, consentimiento para el uso de datos, desinformación y, en términos generales, la seguridad y protección del paciente.
En cuanto a la propia ley, desde Europa buscan establecer un marco jurídico uniforme para el desarrollo, la comercialización y el uso de esta tecnología. En concreto, las reglas que se han aprobado tratan de implantar una serie de obligaciones para los proveedores y usuarios, que a su vez, se dividen dependiendo de los niveles de peligro que presenten los diferentes usos.
Según especifica el borrador de la Comisión, en primer lugar se encuentran las IA que no representan una gran amenaza para los ciudadanos, de riesgo limitado, en las que solo estarán obligados a tener cierta transparencia; en la mitad, de riesgo alto, agrupa a los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales, como por ejemplo, los dispositivos médicos; por último, de riesgo inaceptable, pasarán a estar prohibidas en territorio de la UE una vez la ley entre en vigor, rango en el que han incluido los sistemas biométricos de vigilancia y la tecnología de “puntuación social”.
“Si se utiliza de manera inteligente y amplia, la IA promete enormes beneficios para nuestra economía y sociedad"
Además de estos tres principales niveles de riesgo, el comunicado de la CE incorpora el riesgo de transparencia específico, que hace referencia a que los usuarios deben ser conscientes de que los contenidos generados por IA a través de “etiquetas” que lo aclaren.
En el caso de no cumplir con estas normas establecidas, la empresa será multada con aproximadamente 35 millones de euros o el 7% de su facturación anual si pertenecen al sector de riesgo inaceptable, 15 millones de euros o el 3% por violaciones de otras obligaciones y 7,5 millones de euros o el 1,5% por proporcionar información incorrecta.
ESTRATEGIA DE SALUD DIGITAL DEL SNS
En cuanto a la legislación de las nuevas tecnologías, España cuenta desde finales de 2021 con la Estrategia de Salud Digital del Sistema Nacional de Salud, que busca contribuir al mantenimiento de un buen nivel de salud en la población española y a fortalecer el sistema sanitario público mediante la capacidad transformadora de las tecnologías digitales.
Un objetivo que evidentemente pasa por la utilización de la IA para ayudar al personal sanitario a aplicar las mejores prácticas, ofreciendo diagnósticos más rápidos y precisos; permitiendo a los pacientes una mejor gestión de su salud; y optimizando los recursos sanitarios disponibles con la automatización de tareas y la monitorización personal.
Además, la IA se está incorporando cada vez más a la industria farmacéutica y, en concreto, al desarrollo de fármacos. Esta tecnología ayuda en: el diseño y ampliación de los procesos ya existentes, que mediante el aprendizaje automático consiguen identificar posibles contratiempos; lamonitorización, midiendo en todo momento los cambios en el rendimiento; y la el análisis de tendencias, examinando las quejas de los consumidores y los informes de desviaciones, mejorando en todo momento los resultados.