ChatGPT para proveedores de atención médica: ¿Puede el chatbot de IA facilitar el trabajo de los profesionales?
Además de escribir artículos, canciones y código en cuestión de segundos, ChatGPT podría llegar al consultorio de su médico, si aún no lo ha hecho.
El basado en inteligencia artificial chatbot, lanzado por OpenAI en diciembre de 2022, es un modelo de procesamiento de lenguaje natural (NLP) que se basa en información de la web para producir respuestas en un formato conversacional claro.
Si bien no pretende ser una fuente de asesoramiento médico personalizado, los pacientes pueden usar ChatGPT para obtener información sobre enfermedades, medicamentos y otros temas de salud.
CHATGPT Y ATENCIÓN MÉDICA: ¿PODRÍA EL CHATBOT DE IA CAMBIAR LA EXPERIENCIA DEL PACIENTE?
Algunos expertos incluso creen que la tecnología podría ayudar a los médicos a proporcionar atención al paciente más eficiente y completa.
Dr. Tinglong Dai, profesor de gestión de operaciones en la Escuela de Negocios Johns Hopkins Carey en Baltimore, Marylandy experto en inteligencia artificial, dijo que los modelos de lenguaje extenso (LLM, por sus siglas en inglés) como ChatGPT han “mejorado el juego” en la IA médica.

Algunos expertos creen que el chatbot de inteligencia artificial ChatGPT podría ayudar a los médicos a brindar una atención al paciente más eficiente y completa. (iStock)
“La IA que vemos hoy en el hospital está especialmente diseñada y entrenada con datos de estados de enfermedades específicos; a menudo, no puede adaptarse a nuevos escenarios y situaciones, y no puede usar bases de conocimientos médicos ni realizar tareas básicas de razonamiento”. le dijo a Fox News Digital en un correo electrónico.
“Los LLM nos dan la esperanza de que la IA general sea posible en el mundo de la atención médica”.
Apoyo a la decisión clínica
Un uso potencial de ChatGPT es brindar apoyo en la toma de decisiones clínicas a médicos y profesionales médicos, ayudándolos a seleccionar las opciones de tratamiento adecuadas para los pacientes.
En un estudio preliminar del Centro Médico de la Universidad de Vanderbilt, los investigadores analizaron la calidad de 36 sugerencias generadas por IA y 29 sugerencias generadas por humanos con respecto a las decisiones clínicas.
De las 20 respuestas con la puntuación más alta, nueve provinieron de ChatGPT.
“Se descubrió que las sugerencias generadas por la IA ofrecen perspectivas únicas y se evaluaron como altamente comprensibles y relevantes, con utilidad moderada, baja aceptación, sesgo, inversión y redundancia”, escribieron los investigadores en los hallazgos del estudio, que se publicaron en la Biblioteca Nacional. de Medicina.
Dai señaló que los médicos pueden ingresar registros médicos de una variedad de fuentes y formatos, incluidas imágenes, videos, grabaciones de audio, correos electrónicos y archivos PDF, en modelos de lenguaje grande como ChatGPT para obtener segundas opiniones.
LA PLATAFORMA DE ATENCIÓN MÉDICA AI PREDICE LA DIABETES CON ALTA PRECISIÓN PERO ‘NO REEMPLAZARÁ LA ATENCIÓN AL PACIENTE’
“También significa que los proveedores pueden construir portales de mensajes para pacientes más eficientes y efectivos que entiendan lo que necesitan los pacientes y los dirijan a las partes más apropiadas o les respondan con respuestas automáticas”, agregó.
Dr. Justin Norden, experto en inteligencia artificial y salud digital que es profesor adjunto en la Universidad de Stanford en Californiadijo que escuchó a médicos senior decir que ChatGPT es probablemente “tan bueno o mejor” que la mayoría de los internos durante su primer año de la facultad de medicina.

Un uso potencial de ChatGPT es brindar apoyo en la toma de decisiones clínicas a médicos y profesionales médicos, ayudándolos a seleccionar las opciones de tratamiento adecuadas para los pacientes. (iStock)
“Estamos viendo planes médicos generados en segundos”, dijo a Fox News Digital en una entrevista.
“Estas herramientas se pueden usar para extraer información relevante para un proveedor, para actuar como una especie de ‘copiloto’ para ayudar a alguien a pensar en otras cosas que podrían considerar”.
Educación para la salud
Norden está especialmente entusiasmado con el uso potencial de ChatGPT para la educación sanitaria en un entorno clínico.
“Creo que una de las cosas sorprendentes de estas herramientas es que puedes tomar un cuerpo de información y transformar su aspecto para muchas audiencias, idiomas y niveles de comprensión de lectura diferentes”, dijo.
“Actualmente, ChatGPT tiene un riesgo muy alto de estar ‘inaceptablemente equivocado’ con demasiada frecuencia”.
Por ejemplo, ChatGPT podría permitir a los médicos explicar completamente conceptos y tratamientos médicos complejos a cada paciente de una manera digerible y fácil de entender, dijo Norden.
“Por ejemplo, después de someterse a un procedimiento, el paciente podría chatear con ese cuerpo de información y hacer preguntas de seguimiento”, dijo Norden.
Tareas administrativas
Norden dijo que lo más fácil para usar ChatGPT en el cuidado de la salud es agilizar las tareas administrativas, que es un “gran componente de tiempo” para los proveedores médicos.
En particular, dijo que algunos proveedores buscan el chatbot para optimizar las notas médicas y la documentación.
“En el aspecto clínico, las personas ya están comenzando a experimentar con modelos GPT para ayudar a escribir notas, redactar resúmenes de pacientes, evaluar puntajes de gravedad de pacientes y encontrar información clínica rápidamente”, dijo.

Algunos expertos creen que los modelos de lenguaje de IA, como ChatGPT, podrían ayudar a simplificar las instrucciones de alta del paciente. (iStock)
“Además, en el aspecto administrativo, se está utilizando para autorización previa, facturación y codificación, y análisis”, agregó Norden.
Dos empresas de tecnología médica que han logrado avances significativos en estas aplicaciones son Doximity y Nuance, señaló Norden.
Doximity, una red médica profesional para médicos con sede en San Francisco, lanzó su plataforma DocsGPT para ayudar a los médicos a escribir cartas de necesidad médica, apelaciones de denegación y otros documentos médicos.
INTELIGENCIA ARTIFICIAL EN SALUD: NUEVO PRODUCTO ACTÚA COMO ‘COPILOTO PARA MÉDICOS’
Nuance, una empresa de Microsoft con sede en Massachusetts que crea soluciones para el cuidado de la salud impulsadas por IA, está probando su programa de toma de notas habilitado para GPT4.
El plan es comenzar con un subconjunto más pequeño de usuarios beta e implementar gradualmente el sistema a sus más de 500,000 usuarios, dijo Norden.
Si bien cree que este tipo de herramientas aún necesitan “barandillas protectoras” reglamentarias, ve un gran potencial para este tipo de uso, tanto dentro como fuera del cuidado de la salud.
“Si tengo una gran base de datos o una gran cantidad de documentos, puedo hacer una pregunta natural y comenzar a extraer información relevante; los grandes modelos de lenguaje han demostrado que son muy buenos en eso”, dijo.
Altas de pacientes
El proceso de alta hospitalaria implica muchos pasos, incluida la evaluación de la condición médica del paciente, la identificación de la atención de seguimiento, la prescripción y explicación de los medicamentos, las restricciones en el estilo de vida y más, según Johns Hopkins.
Los modelos de lenguaje de IA como ChatGPT podrían potencialmente ayudar a optimizar las instrucciones de alta del paciente, cree Norden.
IA VS. CÁNCER: CIENTÍFICO DEL MONTE SINAI DICE QUE LA TECNOLOGÍA AVANZADA TIENE ‘IMPACTO DRÁSTICO’ EN EL DIAGNÓSTICO Y EL TRATAMIENTO
“Esto es increíblemente importante, especialmente para alguien que ha estado en el hospital por un tiempo”, dijo a Fox News Digital.
Los pacientes “podrían tener muchos medicamentos nuevoscosas que tienen que hacer y dar seguimiento, y a menudo se quedan con [a] unos pedazos de papel impreso y eso es todo”.
Añadió: “Dar a alguien mucha más información en un idioma que entienda, en un formato con el que pueda continuar interactuando, creo que es realmente poderoso”.
Privacidad y precisión citados como grandes riesgos
Si bien ChatGPT podría optimizar las tareas de atención médica de rutina y aumentar el acceso de los proveedores a grandes cantidades de datos médicos, no está exento de riesgos, según los expertos.
El Dr. Tim O’Connell, vicepresidente de informática médica en el departamento de radiología de la Universidad de Columbia Britanicadijo que existe un grave riesgo de privacidad cuando los usuarios copian y pegan las notas clínicas de los pacientes en un servicio basado en la nube como ChatGPT.
“Queremos que el software de inteligencia artificial médica sea confiable”.
“A diferencia de ChatGPT, la mayoría de las soluciones clínicas de PNL se implementan en una instalación segura para que los datos confidenciales no se compartan con nadie fuera de la organización”, dijo a Fox News Digital.
“Tanto Canadá e Italia han anunciado que están investigando OpenAI [ChatGPT’s parent corporation] para ver si están recopilando o utilizando información personal de manera inapropiada”.
Además, O’Connell dijo que el riesgo de que ChatGPT genere información falsa podría ser peligroso.
Los proveedores de atención de la salud generalmente clasifican los errores como “aceptablemente incorrectos” o “inaceptablemente incorrectos”, dijo.

Si bien ChatGPT podría optimizar las tareas de atención médica de rutina y aumentar el acceso de los proveedores a grandes cantidades de datos médicos, no está exento de riesgos, dicen los expertos. (Gabby Jones/Bloomberg vía Getty Images)
“Un ejemplo de ‘aceptablemente incorrecto’ sería que un sistema no reconozca una palabra porque un proveedor de atención usó un acrónimo ambiguo”, explicó.
“Una situación ‘inaceptablemente incorrecta’ sería en la que un sistema comete un error que cualquier ser humano, incluso uno que no sea un profesional capacitado, no cometería”.
“Es difícil ver cómo un motor de generación de idiomas puede proporcionar tales garantías”.
Esto podría significar inventar enfermedades que el paciente nunca tuvo, o hacer que un chatbot se vuelva agresivo con un paciente o le dé malos consejos que puedan dañarlo, dijo O’Connell, quien también es director ejecutivo de Emtelligent, una empresa con sede en Vancouver, Columbia Británica. empresa de tecnología médica que ha creado un motor NLP para texto médico.
HAGA CLIC AQUÍ PARA SUSCRIBIRSE A NUESTRO BOLETÍN DE SALUD
“Actualmente, ChatGPT tiene un riesgo muy alto de estar ‘inaceptablemente equivocado’ con demasiada frecuencia”, agregó. “El hecho de que ChatGPT pueda inventar hechos que parecen plausibles ha sido señalado por muchos como uno de los mayores problemas con el uso de esta tecnología en el cuidado de la salud”.
HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
“Queremos que el software de inteligencia artificial médica sea confiable y que brinde respuestas que sean explicables o que el usuario pueda verificar que sean verdaderas, y producir resultados que sean fieles a los hechos sin ningún sesgo”, continuó.
“Por el momento, ChatGPT aún no funciona bien con estas medidas, y es difícil ver cómo un motor de generación de idiomas puede proporcionar tales garantías”.