ChatGPT, el inteligencia artificial El chatbot que OpenAI lanzó en diciembre de 2022 es conocido por su capacidad para responder preguntas y proporcionar información detallada en segundos, todo de una manera clara y conversacional.
A medida que crece su popularidad, ChatGPT está apareciendo en prácticamente todas las industrias, incluida la educación, los bienes raíces, la creación de contenido e incluso la atención médica.
Aunque el chatbot podría potencialmente cambiar o mejorar algunos aspectos de la experiencia del paciente, los expertos advierten que tiene limitaciones y riesgos.
Dicen que la IA nunca debe usarse como sustituto de la atención médica.
LA PLATAFORMA DE ATENCIÓN MÉDICA AI PREDICE LA DIABETES CON ALTA PRECISIÓN PERO ‘NO REEMPLAZARÁ LA ATENCIÓN AL PACIENTE’
La búsqueda de información médica en línea no es nada nuevo: las personas han estado buscando en Google sus síntomas durante años.
Pero con ChatGPT, las personas pueden hacer preguntas relacionadas con la salud y participar en lo que se siente como una “conversación” interactiva con una fuente de información médica aparentemente omnisciente.
“ChatGPT es mucho más poderoso que Google y ciertamente ofrece resultados más convincentes, ya sea [those results are] bien o mal”, dijo el Dr. Justin Norden, experto en salud digital e inteligencia artificial y profesor adjunto en la Universidad de Stanford. en Californiadijo a Fox News Digital en una entrevista.

ChatGPT tiene casos de uso potenciales en prácticamente todas las industrias, incluida la atención médica. (iStock)
Con los motores de búsqueda de Internet, los pacientes obtienen información y enlaces, pero luego deciden dónde hacer clic y qué leer. Con ChatGPT, las respuestas se les dan de manera explícita y directa, explicó.
Una gran advertencia es que la fuente de datos de ChatGPT es Internet, y hay mucha información errónea en la web, como la mayoría de la gente sabe. Es por eso que las respuestas del chatbot, por muy convincentes que parezcan, siempre deben ser examinadas por un médico.
Además, ChatGPT solo está “entrenado” con datos hasta septiembre de 2021, según varias fuentes. Si bien puede aumentar su conocimiento con el tiempo, tiene limitaciones en términos de brindar información más reciente.
“Creo que esto podría crear un peligro colectivo para nuestra sociedad”.
Dr. Daniel Khashabi, profesor de informática en Johns Hopkins en Baltimore, Marylandy experto en sistemas de procesamiento de lenguaje natural, está preocupado de que, a medida que las personas se acostumbren a confiar en los chatbots conversacionales, estarán expuestas a una cantidad cada vez mayor de información inexacta.
“Hay mucha evidencia de que estos modelos perpetúan información falsa que han visto en su entrenamiento, sin importar de dónde provenga”, dijo a Fox News Digital en una entrevista, refiriéndose al “entrenamiento” de los chatbots.
LA IA Y LA SALUD DEL CORAZÓN: LAS MÁQUINAS REALIZAN UN MEJOR TRABAJO DE LECTURA DE ULTRASONIDOS QUE LOS SONÓGRAFOS, DICE UN ESTUDIO
“Creo que esto es una gran preocupación en la esfera de la salud pública, ya que las personas toman decisiones que cambian la vida sobre cosas como medicamentos y procedimientos quirúrgicos en función de estos comentarios”, agregó Khashabi.
“Creo que esto podría crear un peligro colectivo para nuestra sociedad”.
Podría ‘eliminar’ alguna ‘carga no clínica’
Los pacientes podrían potencialmente usar los sistemas basados en ChatGPT para hacer cosas como programar citas con proveedores médicos y reponer recetas, eliminando la necesidad de hacer llamadas telefónicas y soportar largos tiempos de espera.
“Creo que este tipo de tareas administrativas se adaptan bien a estas herramientas, para ayudar a eliminar parte de la carga no clínica de el sistema de salud“, dijo Norden.

Con ChatGPT, las personas pueden hacer preguntas relacionadas con la salud y participar en lo que se siente como una “conversación” interactiva con una fuente de información médica aparentemente omnisciente. (Gabby Jones/Bloomberg vía Getty Images)
Para habilitar este tipo de capacidades, el proveedor tendría que integrar ChatGPT en sus sistemas existentes.
Khashabi cree que estos tipos de usos podrían ser útiles si se implementan de la manera correcta, pero advierte que podría causar frustración a los pacientes si el chatbot no funciona como se esperaba.
“Si el paciente pregunta algo y el chatbot no ha visto esa condición o una forma particular de expresarlo, podría desmoronarse, y eso no es un buen servicio al cliente”, dijo.
“Debe haber una implementación muy cuidadosa de estos sistemas para asegurarse de que sean confiables”.
“Podría desmoronarse, y eso no es un buen servicio al cliente”.
Khashabi también cree que debería haber un mecanismo alternativo para que, si un chatbot se da cuenta de que está a punto de fallar, pase inmediatamente a ser humano en lugar de seguir respondiendo.
“Estos chatbots tienden a ‘alucinar’: cuando no saben algo, continúan inventando cosas”, advirtió.
Podría compartir información sobre los usos de un medicamento.
Si bien ChatGPT dice que no tiene la capacidad de crear recetas u ofrecer tratamientos médicos a los pacientes, sí ofrece amplia información sobre medicamentos.
Los pacientes pueden usar el chatbot, por ejemplo, para conocer los usos previstos de un medicamento, los efectos secundarios, las interacciones entre medicamentos y el almacenamiento adecuado.

ChatGPT no tiene la capacidad de hacer recetas u ofrecer tratamientos médicos, pero podría ser un recurso útil para obtener información sobre medicamentos. (iStock)
Cuando se le preguntó si un paciente debería tomar un determinado medicamento, el chatbot respondió que no estaba calificado para hacer recomendaciones médicas.
En cambio, dijo que las personas deben comunicarse con un proveedor de atención médica con licencia.
Podría tener detalles sobre condiciones de salud mental.
Los expertos están de acuerdo en que ChatGPT no debe considerarse como un reemplazo de un terapeuta. Es un modelo de IA, por lo que carece de la empatía y los matices que proporcionaría un médico humano.
Sin embargo, dada la escasez actual de proveedores de salud mental y, a veces, largos tiempos de espera para obtener citas, puede ser tentador para las personas usar la IA como un medio de apoyo provisional.
EL MODELO DE IA SYBIL PUEDE PREDECIR EL RIESGO DE CÁNCER DE PULMÓN EN LOS PACIENTES, DICE UN ESTUDIO
“Con la escasez de proveedores en medio de una crisis de salud mental, especialmente entre los adultos jóvenes, existe una necesidad increíble”, dijo Norden de la Universidad de Stanford. “Pero, por otro lado, estas herramientas no están probadas ni probadas”.
Agregó: “No sabemos exactamente cómo van a interactuar, y ya hemos comenzado a ver algunos casos de personas que interactúan con estos chatbots durante largos períodos de tiempo y obtienen resultados extraños que no podemos explicar. “

Los pacientes podrían potencialmente usar los sistemas basados en ChatGPT para hacer cosas como programar citas con proveedores médicos y reponer recetas. (iStock)
Cuando se le preguntó si podría brindar apoyo de salud mental, ChatGPT proporcionó un descargo de responsabilidad de que no puede reemplazar el papel de un profesional de salud mental con licencia.
Sin embargo, dijo que podría proporcionar información sobre condiciones de salud mental, estrategias de afrontamiento, prácticas de autocuidado y recursos para ayuda profesional.
OpenAI ‘no permite’ el uso de ChatGPT para orientación médica
OpenAI, la empresa que creó ChatGPT, advierte en sus políticas de uso que el chatbot de IA no debe usarse para instrucción médica.
Específicamente, la política de la compañía decía que ChatGPT no debe usarse para “decirle a alguien que tiene o no una cierta condición de salud, o proporcionar instrucciones sobre cómo curar o tratar una condición de salud”.
Se espera que el papel de ChatGPT en el cuidado de la salud siga evolucionando.
También afirmó que los modelos de OpenAI “no están ajustados para brindar información médica. Nunca debe usar nuestros modelos para brindar servicios de diagnóstico o tratamiento para condiciones médicas serias.”
Además, dijo que “las plataformas de OpenAI no deben usarse para clasificar o gestionar problemas que amenazan la vida y que necesitan atención inmediata”.
HAGA CLIC AQUÍ PARA SUSCRIBIRSE A NUESTRO BOLETÍN DE SALUD
En escenarios en los que los proveedores usan ChatGPT para aplicaciones de salud, OpenAI les pide que “proporcionen un descargo de responsabilidad a los usuarios informándoles que se está utilizando IA y sus posibles limitaciones”.
Al igual que la tecnología en sí, se espera que el rol de ChatGPT en el cuidado de la salud continúe evolucionando.
Mientras que algunos creen que tiene un potencial emocionante, otros creen que los riesgos deben sopesarse cuidadosamente.
HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
Como dijo a Fox News Digital el Dr. Tinglong Dai, profesor de Johns Hopkins y renombrado experto en análisis de atención de la salud, “los beneficios casi seguramente superarán los riesgos si la comunidad médica participa activamente en el esfuerzo de desarrollo”.