,Un estudio de la Universidad de Long Island advierte sobre la poca confiabilidad de la inteligencia artificial, específicamente de la aplicación ChatGPT, en proporcionar información médica precisa; especialmente sobre medicamentos.
Durante un período de 16 meses entre 2022 y 2023, investigadores realizaron 39 preguntas relacionadas con medicinas y sus efectos; descubriendo que solo el 25.7% de las respuestas del chatbot cumplían con los criterios de los profesionales de la salud. El 74.3% de las respuestas fueron consideradas incorrectas o incompletas por expertos farmacéuticos.
- De su interés: ¡Google podcasts anuncia su cierre en 2024!
Sara Grossman, la directora del estudio, señaló que, en un intento de verificar las fuentes de información de ChatGPT, se descubrió que estas fueron inventadas en ocho ocasiones, lo que cuestiona la fiabilidad de la base de conocimientos de la inteligencia artificial. Un ejemplo destacado fue la incapacidad del chatbot para identificar una interacción peligrosa entre dos medicamentos.
A pesar de la preocupación por la precisión de la información médica proporcionada por la inteligencia artificial, Gina Luchen, de la Sociedad Estadounidense de Farmacéuticos del Sistema de Salud (ASHP), sugiere que la IA puede tener un impacto positivo en la atención médica; pero se enfatiza la importancia de validar la información generada con profesionales de la salud.
Desafíos en la inteligencia artificial ChatGPT
Este estudio se suma a otras investigaciones, que destacan la falta de fiabilidad de la información proporcionada por modelos de lenguaje avanzados; incluso GPT-4 de OpenAI. Investigadores del Brigham and Women’s Hospital encontraron errores en respuestas de ChatGPT; relacionadas con el cáncer y su tratamiento.
La conclusión general es que los usuarios deben tomar con precaución las respuestas de la inteligencia artificial, especialmente en temas críticos de salud; y validar la información con fuentes confiables y profesionales médicos para evitar posibles consecuencias fatales.