Ya ha arrancado en CaixaForum Madrid el VI Foro de Comunicación Salud Digital. Organizado por Grupo Mediforum, con el apoyo de ConSalud.es y el patrocinio de las compañías Quirónsalud, GSK, Glintt, Telómera, Oximesa Nippon Gases y el Grupo Farmadosis, la edición de este año -que sigue en marcha hasta las 14h. en este enlace- lleva por lema ‘Sanidad Inteligente’ y cuenta con expertos en distintas áreas de esta disciplina, como José Manuel Molina López.
Molina López, catedrático del área de Ciencia de la Computación e Inteligencia Artificial de la Universidad Carlos III de Madrid, reconoce que es muy difícil definir en la actualidad el concepto de IA debido a que la inteligencia es también un concepto muy distinto según la persona. "Por eso, tenemos que dotar de infinidad de cosas a las máquinas", afirma.
Lo que sí considera muy importante es saber diferenciar qué se le puede pedir a una máquina y qué no. "Pueden clasificar si alguien está enfermo o no, predecir cosas a raíz a partir de esa clasificación o incluso generar nueva información... pero lo que no les podemos pedir es que nos sigan por qué han tomado una decisión u otra, porque las máquinas no tienen ningún de motivación, como sí tienen los humanos", explica el experto, quien apunta que esa es precisamente una de las cosas que la ciencia ficción ha reflejado erróneamente a lo largo de los años. "Hay que saber distinguir entre ser inteligente y tener un propósito", insiste.
"Hay que saber distinguir entre ser inteligente y tener un propósito"
No obstante, afirma Molina López, lo que sí está impactando más últimamente es que parece que las maquinas se están acercando más a los humanos en las cuestiones que pueden resolver. Y es que, históricamente, los problemas que los humanos han tratado de resolver con las máquinas son cosas más "sencillas" y propias de nosotros: hablar con otras personas, darles un diagnóstico... mientras que a las máquinas lo que se les da bien es lo que a los humanos les cuesta más, conceptos que cada vez están menos alejados.
UNA HISTORIA DE MÁS DE 50 AÑOS
Esta evolución de la Inteligencia Artificial, aunque ha dado pasos de gigante en los últimos años, comenzó ya en la década de los setenta. Entonces se contaba con lo que el catedrático denomina "sistemas de expertos", que tenían el problema de que se comían pasos y por eso "no funcionaban bien". El periodo desde los años 80 hasta el 2010 estuvo dominado por el machine learning, durante el cual fueron los ingenieros, como Molina López, quienes decidieron extraer los datos ellos mismos.
"Los datos que hemos aportado cada uno de nosotros es inagotable"
Y fue a partir de ese año 2010 cuando comenzó su crecimiento imparable, con el surgimiento de los sistemas de deep learning. "Tal era la cantidad de datos con la que se contaba que era imposible dar a basto", asegura. De hecho, esa ha sido la gran diferencia con respecto a la forma de funcionar de hace 30 años, porque las técnicas de Inteligencia Artificial "son las mismas": "Los datos que hemos aportado cada uno de nosotros es inagotable, y la capacidad de digitalización es también mucho mayor".
Así, para controlar tal cantidad de datos, en los últimos años, especialmente a partir del 2020, se comenzó a seleccionar el conocimiento previo que se le daba a las máquinas para que se especializasen en una determinada área. "Ahora se buscan herramientas de conocimiento general, y de ahí se pasa a lo específico. Antes era al contrario, se empezaba por lo específico y la máquina daba unos resultados generales", amplía Molina López. Por todo ello, como señalaba al comienzo de su conferencia, en la actualidad cada vez se le están dando más cosas a las máquinas, y "todas las técnicas de diagnóstico por imagen, por poner un ejemplo, van a tener deep learning".
REGULACIÓN Y RETOS
La creciente cantidad de datos de las que disponen hoy en día las máquinas generan también más retos en la regulación de la Inteligencia Artificial. De hecho, indica el experto, la Unión Europea -"es la que se encarga de legislar, mientras que Estados Unidos y China son las que tienen el músculo"- exige entender cómo toman sus decisiones "unos sistemas que muchas veces no sabemos cómo funcionan por dentro". "La UE es una referencia mundial, y ha interpuesto varios niveles de riesgos. Está prohibido, por ejemplo, la puntuacióon social, algo que China sí ha hecho. También va a imponer una serie de métricas a las herramientas de IA -como las aplicaciones médicas, que están en el nivel naranja- que les obliguen a aprobar un examen para su comercialización. Ese es el punto en el que estamos ahora", alerta.
"El error de las máquinas de IA es del 4%, pero el problema es que, cuando se equivocan, se equivocan mucho"
Es más; según apunta Molina López, "ninguna de las herramientas de Inteligencia Artificial aprueba a día de hoy todas esas métricas... pero no creo que nos vayamos a quedar sin herramientas por eso". Otro reto es lo que se conoce como Inteligencia Artificial Humilde: "No hacer que todo el mundo sea experto, sino que la IA se baje el nivel del usuario y las pueda utilizar cualquiera".
Por último -y por razones obvias-, el ámbito sanitario es uno de los que exige mayor regulación por parte de las autoridades. "El error de las máquinas de IA es del 4%, pero el problema es que, cuando se equivocan, se equivocan mucho, y en el sector salud eso puede suponer diagnósticos muy distintos. Hay que seguir trabajando para que aprendan a calcular el error", sentencia.