El director de la AESIA anuncia que España tendrá un centro nacional de certificación en IA

Ignasi Belda ha indicado que la AESIA es una entidad que se va a dedicar a supervisar el buen uso de la IA en el mercado nacional

Ignasi Belda, director de la Agencia Española de Supervisión de la Inteligencia Artificial (Fuente: AESIA)
Ignasi Belda, director de la Agencia Española de Supervisión de la Inteligencia Artificial (Fuente: AESIA)
Diego Domingo
30 septiembre 2024 | 17:00 h

España creará un centro nacional de certificación en Inteligencia Artificial (IA) que operará "hasta que se creen organismos o centros certificadores". Así lo ha indicado el director de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), Ignasi Belda, durante el V Simposio del Observatorio de la Sanidad que celebran EL ESPAÑOL e Invertia. "Esperamos que haya muchos organismos públicos y privados que puedan prestar este servicio público", afirmó.

Belda ha defendido la función de la AESIA: "No es un centro de investigación, no es un centro universitario o tecnológico, es una agencia de supervisión de mercado. En otras palabras, la AESIA es a la IA lo que el Banco de España al sector financiero, una entidad que se va a dedicar a supervisar el buen uso de la IA en el mercado nacional, tanto para empresas públicas como privadas".

“No podemos permitir que haya empresas o administraciones públicas que usen la IA para puntuar al ciudadano” 

El director también ha aprovechado para repasar el Reglamento de IA aprobado en la Comisión Europea: "Tiene una fuerte inspiración en el reglamento de productos sanitarios, con una clasificación de cuatro categorías basada en el riesgo. Una de ellas es la de aplicaciones prohibidas, como reconocer emociones en puestos de trabajo o centros educativos. Otra aplicación prohibida es el 'social scoring'. No podemos permitir que haya empresas o administraciones públicas que usen la IA para puntuar al ciudadano y que tenga que pagar una tasa de basuras mayor si no hace bien el reciclaje, por ejemplo".

Sin embargo, hay "aplicaciones de riesgo bajo o riesgo nulo, que son el 98 por ciento donde el reglamento es muy laxo". "No hay problema en que se use la IA en todas las materias en las que no hay ninguna vida humana o ningún derecho humano fundamental en riesgo. Si me quiero certificar, puedo hacerlo, pero es completamente potestativo, nadie me obliga a hacerlo", ha detallado.

Otro elemento que ha abordado es el 'sandbox', el entorno de pruebas aislado en el que se puede ejecutar código de software potencialmente inseguro sin afectar a los recursos de red o a las aplicaciones locales. Belda ve "un paralelismo con un estudio clínico, que es obligado en los dispositivos médicos. Vamos a hacer lo mismo con la IA, con la diferencia de que aquí es optativo. Si una empresa o administración pública quiere realizar un 'sandbox' de su IA, estamos desplegando toda una normativa para que puedan hacerlo. Si sale bien, la certificación para la CE la tendrá mucho más fácil, lo que facilitará la innovación en nuestro país", ha finalizado.

Los contenidos de ConSalud están elaborados por periodistas especializados en salud y avalados por un comité de expertos de primer nivel. No obstante, recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.
Lo más leído