En los últimos días se ha anunciado el próximo lanzamiento de ChatGPT Salud, una nueva herramienta de OpenAI diseñada para gestionar información médica con máxima privacidad. A raíz de este anuncio, desde ConSalud.es nos hemos puesto en contacto con Juan José Beunza, catedrático de Salud Pública y director de IASalud de la Universidad Europea, quien nos ha hablado de los pros y contras de esta nueva herramienta.
Según Beunza, esta nueva herramienta surge porque OpenAI ha detectado que el actual ChatGPT recibe millones de consultas sobre salud, por lo que buscan "ofrecer un servicio más fiable y específico en el ámbito sanitario basado en obtener datos más personalizados de la historia clínica de cada paciente para ofrecer soluciones más fiables para cada usuario".
Respecto a los beneficios que puede ofrecer, el experto apunta que esto implicará "una mejora del servicio que ya ofrece", pues el actual ChatGPT comete muchas alucinaciones y errores muy graves. Apunta que "en la medida en que ellos tienen más datos y entrenan un modelo con el lenguaje específico del ámbito sanitario y tienen más información personal del paciente, la funcionalidad va a ser mejor, más fiable y va a ofrecer un servicio, en principio, mejor".
No es una herramienta para hacer diagnósticos ni tomar decisiones, pero sabemos que muchos se están fiando de estas respuestas para tomar decisiones
Sin embargo, el especialista también destaca que esta nueva herramienta tiene una parte muy negativa: "No es una herramienta para hacer diagnósticos ni tomar decisiones, pero sabemos que muchos se están fiando de estas respuestas. Es una herramienta que no está preparada para ser usada por la población general. A medida que la gente la use, irá mejorando, pero a día de hoy no aconsejo a ningún paciente ni hacer consultas en ChatGPT ni mucho menos meter su historial clínico en él".
El catedrático apunta que la diferencia entre ChatGPT y ChatGPT Salud es prácticamente inexistente. La única diferencia es que esta última se usará para esa temática concreta y "en la medida en que millones de usuarios ofrezcan su información clínica, el modelo se podrá entrenar mucho mejor y cuanta mayor información tenga, las respuestas van a ser más fiables".
"El problema vendrá cuando diga que algo no es grave y sí lo sea"
Además, esta aplicación también entraña una serie de riesgos importantes: "Nos va a decir que hay una patología grave cuando no la hay. Y eso tampoco está mal porque irá a un médico y verá que no es verdad. El problema vendrá cuando diga que algo no es grave y sí lo sea, ahí vamos a tener un problema. Y a día de hoy, todos los modelos de lenguaje grandes cometen muchos errores porque no dejan de ser predictores de palabras. En realidad ChatGPT no entiende de lo que está hablando, no tiene conciencia ni conocimiento. Lo que hace es predecir palabras en base a patrones". Sin embargo, Beunza se muestra a favor de que esta tecnología evolucione: "El tema no es si conviene desarrollarlo o no, yo creo que sí. El tema es si esto está preparado para ser usado por pacientes y población general a gran escala. Yo creo que no. Lo que pasa es que los intereses comerciales de unos inversores que han invertido muchos millones hacen que busquen un retorno económico rápido y grande. Y el ámbito sanitario es una fuente gigante de retorno económico".
Al ser preguntado por un posible desplazamiento de los profesionales sanitarios por esta IA, Juan José lo tiene claro: "Inicialmente creo que los va a desplazar, pero luego la gente se dará cuenta de que si quieres una respuesta fiable, necesitas a un profesional". No obstante, es consciente de lo útil que puede ser esta herramienta para los profesionales sanitarios que decidan utilizarla: "Un médico que tiene un diagnóstico muy difícil en un paciente, puede pedirle a un modelo de lenguaje una lista de diagnósticos diferenciales, lo que puede dar pistas al médico. Pero un usuario cualquier no tiene esa capacidad crítica sobre lo que está consultando porque los errores están muy enmascarados y es muy difícil detectarlos. Entonces, cuanto más grave es la materia de la consulta y menos sabe de él el usuario, más grande es el riesgo de cometer un error grave con consecuencias muy nocivas".
"La gente se dará cuenta de que si quieres una respuesta fiable, necesitas a un profesional"
Respecto al futuro de ChatGPT Salud, el experto en la materia considera que "en seis meses vamos a ver un uso masivo", algo que traerá consecuencias y que, en su opinión, nos podría forzar a dar pasos atrás. Por ello, considera que el ámbito sanitario se verá forzado a convivir con la IA sí o sí, aunque no se atreve a hacer predicciones de cuál será su futuro concreto en el sector de la salud.
Lo que sí nos ofrece, es una serie de recomendaciones a la hora de usar esta herramienta: "Lo primero es poner en duda todo lo que diga siempre. Lo segundo es que si cualquier respuesta que nos da es de un tema que puede ser importante, siempre consultar a un profesional". De hecho, plantea un caso concreto: "Imagina que un joven está usando ChatGPT para alguna consulta de salud y de repente llega el abuelo y le pregunta, desde ese mismo teclado, por un sangrado en orina. Si el chat piensa que sigue siendo el joven, esto puede dar lugar a un diagnóstico muy equivocado con consecuencias graves".
"Si cualquier respuesta que nos da es de un tema que puede ser importante, siempre consultar a un profesional"
De este modo, ChatGPT Salud es una herramienta que puede resultar tan útil como peligrosa, con la que hay que tener mucho cuidado y no tomar por verdad absoluta lo que nos diga. Y siempre, en cualquier circunstancia, consultar con un profesional de la salud para un diagnóstico preciso.
Fuente: ConSalud.es
