La inteligencia artificial aún necesita a los médicos para dar un buen diagnóstico
Si los vaticinios de los grandes gurús tecnológicos se cumplen, en cuestión de décadas las máquinas serán capaces de cumplir con las obligaciones de un médico tan bien como cualquier facultativo humano. Pero para que eso ocurra todavía tienen mucho que mejorar. De acuerdo con un reciente estudio, publicado por un equipo de investigadores de Estados Unidos en JAMA Network Open, las herramientas como ChatGPT siguen sin contar con la capacidad de razonamiento necesaria para el diagnóstico de un paciente; por ello, se recomienda desconfiar de la información que ofrecen cuando no hay un médico real supervisando los resultados.
Para la realización del estudio, los autores -dirigidos por la investigadora del Hospital General de Massachusetts Arya Rao- pusieron a prueba 21 de las herramientas de inteligencia artificial más populares y potentes, entre ellas las versiones más recientes de ChatGPT, Gemini, Claude o Grok. Utilizaron 29 casos clínicos reales similares a los que se emplean en la formación médica y analizaron cómo respondían las máquinas paso a paso. El objetivo no era solo que ofrecieran un diagnóstico final, también debían proponer posibles enfermedades, decidir qué pruebas realizar al paciente, interpretar los resultados y plantear tratamientos. Algo similar a lo que tienen que hacer los facultativos.
