Molina: “La IA necesita información, tienen que existir suficientes datos para su uso en Sanidad”

La séptima edición del Foro de Comunicación Salud Digital organizado por el Grupo Mediforum ha contado con una mesa de debate dedicada a las Políticas Sanitarias para una vida mejor que ha abordado los retos del futuro

Manuel Molina, catedrático del área de Ciencia de la Computación e Inteligencia Artificial de la Universidad Carlos III de Madrid (Fuente Consalud)
Manuel Molina, catedrático del área de Ciencia de la Computación e Inteligencia Artificial de la Universidad Carlos III de Madrid (Fuente Consalud)
Diego Domingo
6 noviembre 2024 | 16:15 h
Banner VII Foro de Comunicación Salud Digital

El Auditorio CaixaForum de Madrid ha acogido este miércoles la séptima edición del Foro de Comunicación Salud Digital, organizado por el Grupo Mediforum, junto con el patrocinio de Quirónsalud, GSK, Telómera y Oximesa Nippon Gases. Entre el nutrido grupo de expertos que congregó esta cita, José Manuel Molina, catedrático del área de Ciencia de la Computación e Inteligencia Artificial de la Universidad Carlos III de Madrid que abordó el papel de la “Inteligencia Artificial para una vida mejor”. 

Molina comenzó su ponencia reflexionando cómo la Inteligencia Artificial (IA) nos puede simplificar la vida. “Una de las cosas que puede hacer la IA es construir sistemas que ayudan a tomar decisiones”, apuntó el experto. Explicó que a lo largo de los años se han construido este tipo de sistemas, fundamentalmente basados en lógica y experiencia, para después basarse en datos (en un principio limitados y seleccionados por expertos). A partir de este siglo, se dio un salto importante ya que en función de la cantidad de datos almacenados se construyeron sistemas que “aprendían a analizar los datos y que superaban las capacidades de los seres humanos para realizar las mismas tareas”, apuntó Molina. 

“Es necesario que existan los datos suficientes para que estos sistemas se puedan entrenar”

Aunque estos sistemas tenían la limitación de que los datos facilitados tenían que ser recopilados e interpretados por personas, Molina recuerda que “se necesitaban millones y millones de datos por lo que se crearon modelos de aprendizaje para la interpretación de los datos facilitados”. Los modelos reproducen lo que se les ha enseñado previamente: “En este punto ya no dejamos que la máquina aprenda, sino que construye modelos a partir de la información facilitada”, explica Molina. 

Al inicio de la IA, el objetivo del ser humano era “introducir el conocimiento humano dentro de una máquina”, indicó Molina. Pero era necesaria la implicación de muchos expertos que fueran validando los resultados ofrecidos por la IA, y ofreciendo indicaciones para entrenar a los sistemas por ejemplo en la localización de tumores. Molina apuntó que en ámbito de la Sanidad existen protocolos muy complejos de seguridad de datos, por lo que “han surgido iniciativas comunes para compartir datos entre instituciones sanitarias”.

Estos sistemas estaban limitados por las capacidades de los datos. El ser humano, en este punto, construyó estructuras o arquitecturas de deep learning que pudieran interpretar los datos. Uno de los grandes beneficios de esta tecnología es que en estas estructuras, “se pueden realizarán transferencias de conocimiento para realizar refinamiento de aprendizaje para tareas parecidas lo que disminuye notablemente el coste”, indicó Molina.

“Se requiere capacidad de almacenamiento y cómputo, y eso lo tienen las empresas privadas”

Estos sistemas pertenecen a las compañías privadas que tienen millones de datos, millones de fotos que estas empresas extraen de sus propias plataformas a las que los usuarios hemos subido y durante muchos años etiquetado a las personas, entrenando, sin saberlo sus sistemas. “Se requiere capacidad de almacenamiento y cómputo, y esto lo tienen las empresas privadas”, establece Molina. 

Molina pone de relieve la importancia de hacer un buen uso de herramientas de IA, así como la valoración de los resultados. Explicó que en algunos casos ChatGPT “alucina” porque con las indicaciones dadas puede realizar una interpretación equivocada y facilitar indicaciones que nada tiene que ver con la cuestión planteada. 

“Las herramientas de IA ya no son para expertos, solo se basan en construir arquitectura”, afirmó Molina. Estas herramientas con las que interactuar como si fuera una persona, es lo que viene en el futuro, y el gran uso que se está haciendo y se hará. “Lo más importante no son las técnicas, sino la información y los datos”, asegura Molina. “Es necesario que existan los datos suficientes para que estos sistemas se puedan entrenar”, datos que generamos todos diariamente. 

Los contenidos de ConSalud están elaborados por periodistas especializados en salud y avalados por un comité de expertos de primer nivel. No obstante, recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.
Lo más leído