El uso de la Inteligencia Artificialen la Sanidad es una realidad en nuestros días. Tanto es así que, puesto que se trata de una tecnología todavía emergente, los gobiernos se han visto en la necesidad de poner en marcha nuevas normativas para regular su uso. Ejemplo de ello es la Unión Europea, que ya ha adoptado la primera Ley de Inteligencia Artificial del mundo.
Con esta regulación, la Sanidad pasará a ser tratada con la normativa de "alto riesgo", es decir, se deberán cumplir requisitos estrictos. Esta inquietud la comparten también muchos expertos, pues, si bien estas herramientas digitales pueden reducir los costes de los sistemas de salud y mejorar su atención, también hay que atender a otros aspectos que quedan comprometidos, como por ejemplo la seguridad de los pacientes.
Esta cuestión sobre cómo apoyar la transición hacia una atención sanitaria basada en la Inteligencia Artificial, es la que ha respondido la publicación de Nature Medicine, que ofrece algunas recomendaciones sobre los aspectos en los que debemos fijarnos en el camino para implementar esta tecnología en nuestros sistemas.
Se trata de una tecnología cuyo potencial transformador "no está exento de riesgos"
Este camino "se producirá" y tiene además "el potencial de generar un bien público generalizado", se explica. Pese a ello, se trata de una tecnología cuyo potencial transformador "no está exento de riesgos". Según se explica, "los temores sobre el uso nocivo de la IA, en particular la introducción de sesgos algorítmicos que podrían distorsionar o impedir que alguien reciba la atención adecuada, son reales y podrían ser catastróficos si se amplían".
Se trata, en cualquier caso, de "contratiempos evitables". Para ello, se recomienda en primer lugar que las pruebas y las validaciones sean cruciales a la hora de poner en marcha cualquier tecnología. En este sentido, se explica que "existe amplia evidencia de que los modelos de IA tienen problemas de generalización, lo que significa que una herramienta de IA entrenada en un conjunto de datos puede no ofrecer predicciones precisas cuando se expone a nuevos datos".
Igualmente, se explica que hay poca comprensión sobre cómo interactúa la IA con los humanos en un contexto sanitario. "Esto es especialmente relevante con la llegada de grandes modelos de lenguaje cada vez más poderosos, como ChatGPT y modelos básicos, cuyo comportamiento es comparativamente menos predecible o interpretable, en general".
Se recomienda en primer lugar que las pruebas y las validaciones sean cruciales a la hora de implementar cualquier tecnología
Por otro lado, otro de los aspectos que hay que tener en cuenta es que "la evaluación de las herramientas y dispositivos de IA no debe basarse únicamente en mediciones operativas, como por ejemplo si la herramienta aumenta la productividad de los médicos o del sistema de salud en general". Por el contrario, lo que se debe buscar es que haya beneficios reales para los pacientes.
Igualmente, se alerta de que "existe el riesgo de que la IA aumente aún más o cree nuevas disparidades en salud". En este sentido, se explica que el despliegue de las herramientas más avanzadas depende de un sistema de infraestructura digital "que simplemente no está presente en la mayoría de los países".
Por ello, "a medida que se diseñen y realicen nuevos estudios, será importante considerar la viabilidad de implementar una intervención de IA donde sea más necesaria, incluidos entornos con recursos limitados". En este caso se pone como ejemplo el uso de teléfonos móviles, que ya es generalizado en países de bajos ingresos y que es "una forma relativamente fácil de brindar asistencia y apoyo de salud distribuidos incluso en áreas remotas".