El uso de la Inteligencia Artificial (IA) está ampliamente normalizado en un buen número de ámbitos, algunos tan comunes como la educación, la banca y la medicina. En el ámbito sanitario ya se aplica en multitud de actuaciones, como la monitorización de pacientes, el diagnóstico temprano o el empleo de la robótica en procesos quirúrgicos.
A pesar de ello, desde algunas instituciones europeas advierten que este tipo de mecanismos y otros procesos automatizados pueden entrañar algunos riesgos para los consumidores. En concreto, apuntan que “depender de la IA también conlleva riesgos, especialmente cuando se toman decisiones sin supervisión humana” y que pueden surgir problemas “cuando los datos disponibles reflejan un sesgo social”.
Los eurodiputados advierten que acciones como "recibir un determinado tratamiento médico son procesos que implican una decisión que puede verse influida de manera determinante por la IA"
En este sentido, mencionan cómo “recibir un determinado tratamiento médico son procesos que implican una decisión que puede verse influida de manera determinante por la IA y los sistemas de decisión algorítmica. Asimismo, recuerdan que “la toma de decisiones automatizada puede, por lo tanto, perpetuar las divisiones sociales”.
MEDIDAS ADICIONALES
Por este tipo de cuestiones, los eurodiputados presentes en la comisión de Mercado Interior han instado a la Comisión Europea a través de una reciente resolución, el pasado 23 de enero, para que examine si es necesario adoptar medidas adicionales para proteger a los consumidores.
En la Comisión de Mercado Interior reclaman a la Comisión Europea que garantice a los consumidores "de los riesgos que conllevan los servicios profesionales impulsados por la inteligencia artificial"
Demandan a la Comisión que aclare “cómo va a garantizar que los consumidores estén protegidos ante prácticas comerciales desleales y / o discriminatorias, o de los riesgos que conllevan los servicios profesionales impulsados por la inteligencia artificial”. De la misma forma, reclaman “garantizar una mayor transparencia en estos procesos y asegurarse de que solo se utilicen conjuntos de datos de alta calidad y sin sesgos”.
En esta línea se ha expresado también la presidenta de la Comisión de Mercado Interior, Petra de Sutter, quien ha incidido en que “tenemos que asegurarnos de que se garantice la protección y la confianza del consumidor, que las normas de la UE sobre seguridad y responsabilidad por productos y servicios sean adecuadas para la era digital”.