La Organización Mundial de la Salud (OMS) ha publicado un informe con el que ofrece un abordaje sobre el uso de la inteligencia artificial (IA) en la salud. "La OMS reconoce el potencial de la IA para mejorar los resultados de salud", se afirma en el mismo aunque ala vez también se asegura que estas tecnologías "se están implementando rápidamente, a veces sin una comprensión completa de su funcionamiento, lo que podría perjudicar a los usuarios finales". Una de cal y otra de arena.
Así, y si bien la IA es muy prometedora para la salud, "plantea serios desafíos, incluida la recopilación de datos poco ética, amenazas a la ciberseguridad y amplificación de los sesgos o la desinformación", según las declaraciones del Dr. Tedros Adhanom Ghebreyesus, Director General de la OMS. "Esta nueva guía ayudará a los países a regular la IA de manera efectiva, para aprovechar su potencial, ya sea en el tratamiento del cáncer o en la detección de la tuberculosis, minimizando al mismo tiempo los riesgos".
Uno de los primeros temas que explica esta guía es, precisamente, el uso que pueden tener estas tecnologías aplicadas a la salud. Se destaca la prevención y la promoción de la salud, pues se pueden aplicar sistemas de vigilancia y diagnóstico. Igualmente, puede estar presente en la prestación sanitaria con nuevos tratamientos y seguimientos del pacientes; y en el descubrimiento y desarrollo de nuevos medicamentos, no sólo en el aspecto clínico y preclínico, sino también en su venta.
Si bien la IA es muy prometedora para la salud, plantea serios desafíos, incluida la recopilación de datos poco ética, amenazas a la ciberseguridad y amplificación de los sesgos o la desinformación
Más allá de sus usos, desde la OMS se han puesto también sobre la mesa las áreas en las que se necesita una regulación de la IA aplicada a la salud. La primera de ellas tiene que ver con la transparencia y la documentación en todo el proceso para asegurar la calidad de la tecnología. Es decir, se deberá contar con la documentación pertinente que abarque desde el propósito y la función de la IA, hasta su despliegue y la "proporcionalidad" de sus riesgos.
En segundo lugar, la entidad propone tener en cuenta la gestión de los riesgos que plantea, así como el ciclo de vida de los sistemas. De entre estos riesgos se deben considerar específicamente las amenazas de ciberseguridad que plantean y las vulnerabilidades del propio sistema. La gestión del riesgo, no obstante, debe ser "holística". Los riesgos, además, no sólo se deben analizar y evaluar, también se deben controlar en el ciclo de vida de la IA.
Asimismo, se debe atender al uso que se prevé para la tecnología y su validación analítica y clínica. "Se debe considerar la evaluación para determinar si el uso del sistema es seguro (es decir, no dañará al usuario, al paciente u otras personas) y si las afirmaciones hechas sobre su desempeño pueden verificarse". En el caso de la validación técnica, debe "demostrar que un modelo es robusto y funciona a un nivel aceptable en el entorno previsto". En cuanto a la validación clínica, la herramienta debe demostrar su propia eficacia a nivel sanitario.
Más allá de sus usos, desde la OMS se han puesto también sobre la mesa las áreas en las que se necesita una regulación de la IA aplicada a la salud
En cuarto lugar se pone de manifiesto la necesidad de observar la calidad de los datos. "La disponibilidad de conjuntos de datos de buena calidad que sean clínicamente relevantes es uno de los desafíos clave que enfrentan los desarrolladores". Sin embargo, se alerta, "aún se pueden utilizar datos de diferente calidad según el propósito y, por lo tanto, los desarrolladores deben determinar si los datos disponibles son de calidad suficiente para respaldar el desarrollo de sistemas que puedan lograr el objetivo previsto". Para ello se debe evaluar a gestión de los datos, la inconsistencia, la selección, la usabilidad, la integridad, el etiquetado y la transparencia. De esta manera se podrán evitar además los sesgos derivados que pueden provocar desigualdades.
Otro de los asuntos a tener en cuenta es la privacidad y la protección de datos. La Estrategia Mundial de la OMS sobre Salud Digital 2020-2025 clasifica los datos de salud como datos personales sensibles, por lo que su tratamiento "requiere un alto estándar de seguridad y protección". Aquí entrarían en juego los posibles incidentes derivados de la pérdida de confidencialidad, integridad o disponibilidad; o los derivados del procesamiento de datos personales.
Finalmente, se habla del "compromiso y colaboración entre desarrolladores, fabricantes, profesionales de la salud, pacientes, defensores de pacientes, políticos, organismos reguladores y otras partes interesadas". Es decir, que exista una buena coordinación durante todo el proceso para garantizar la seguridad y calidad de los sistemas. Para ello, se recomienda "considerar el desarrollo de plataformas accesibles e informativas que faciliten el compromiso y la colaboración", así como tener en cuenta la posibilidad de simplificar los cambios en la regulación de la IA".