ChatGPT no es confiable como herramienta para consultas de urología, según muestra una nueva investigación

Blog

HogarHogar / Blog / ChatGPT no es confiable como herramienta para consultas de urología, según muestra una nueva investigación

Aug 10, 2023

ChatGPT no es confiable como herramienta para consultas de urología, según muestra una nueva investigación

Aunque nuevos estudios continúan promocionando los éxitos de la inteligencia artificial a la hora de interpretar datos médicos y ofrecer consejos, parece faltar en al menos una categoría médica importante para

Aunque nuevos estudios continúan promocionando los éxitos de la inteligencia artificial a la hora de interpretar datos médicos y ofrecer consejos, parece faltar en al menos una categoría médica importante para los adultos mayores: la urología.

Cuando se les hicieron preguntas médicas comunes que los pacientes podrían consultar a un médico sobre complicaciones urinarias, el popular chatbot ChatGPT estuvo muy por debajo de los estándares clínicos y, en muchos casos, la información que proporcionó no era en absoluto precisa.

Esta es la primera vez que ChatGPT se evalúa específicamente para urología, afirman los investigadores.

Pero la posibilidad de que la IA ofrezca información sanitaria inexacta o sesgada ha sido una gran preocupación desde que el uso de la tecnología se disparó a principios de este año.

Quizás por esta razón, los pacientes también siguen preocupados por los usos clínicos de la IA.

Algunas de las afecciones más comunes que padecen los adultos mayores y que provocan complicaciones urinarias incluyen agrandamiento de la próstata (los síntomas están presentes en aproximadamente la mitad de los hombres de 75 años o más) y demencia. Las propias infecciones del tracto urinario también pueden provocar más complicaciones en las personas mayores, como delirio o frecuencia cardíaca anormal.

En el estudio de urología, que se llevó a cabo en el Departamento de Urología de la Universidad de Florida, Gainesville, ChatGPT no solo proporcionó a menudo información inexacta, como recomendaciones de tratamiento incorrectas, sino que lo hizo con "confianza", afirmaron los investigadores.

Otros resultados fueron igualmente condenatorios: el chatbot ofreció respuestas que los investigadores consideraron "apropiadas" sólo el 60% de las veces.

"ChatGPT malinterpreta las pautas de atención clínica, descarta información contextual importante, oculta sus fuentes y proporciona referencias inapropiadas", concluyeron los investigadores.