La adopción de sistemas de IA demasiado rápido sin pruebas completas podría conducir a ‘errores por parte de los trabajadores de la salud’: OMS
como el inteligencia artificial el tren avanza sin signos de desaceleración; algunos estudios incluso han pronosticado que la IA crecerá en más de un 37 % por año entre ahora y 2030; la Organización Mundial de la Salud (OMS) ha emitido un aviso que pide “IA segura y ética para salud.”
La agencia recomendó precaución al usar “herramientas de modelo de lenguaje grande (LLM) generadas por IA para proteger y promover el bienestar humano, la seguridad y la autonomía humanas, y preservar la salud pública”.
ChatGPTBard y Bert son actualmente algunos de los LLM más populares.
En algunos casos, se ha demostrado que los chatbots rivalizan con los médicos reales en cuanto a la calidad de sus respuestas a las preguntas médicas.
CHATGPT ENCUENTRA QUE DA MEJORES CONSEJOS MÉDICOS QUE LOS MÉDICOS REALES EN UN ESTUDIO A CIEGO: ‘ESTO SERÁ UN CAMBIO DE JUEGO’
Si bien la OMS reconoce que existe un “entusiasmo significativo” sobre el potencial de usar estos chatbots para necesidades relacionadas con la salud, la organización subraya la necesidad de sopesar los riesgos con cuidado.
“Esto incluye la adhesión generalizada a los valores clave de transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa”.

La Organización Mundial de la Salud (OMS) ha emitido un aviso pidiendo “IA segura y ética para la salud”. (iStock)
La agencia advirtió que la adopción de sistemas de IA demasiado rápido sin pruebas exhaustivas podría resultar en “errores por parte de los trabajadores de la salud” y podría “causar daño a los pacientes”.
La OMS describe preocupaciones específicas
En su aviso, la OMS advirtió que los LLM como ChatGPT podrían recibir capacitación sobre datos sesgados, lo que podría “generar información engañosa o inexacta que podría presentar riesgos para la equidad y la inclusión en la salud”.
“Tener precaución es primordial para la seguridad y privacidad del paciente”.
También existe el riesgo de que estos modelos de IA puedan generar respuestas incorrectas a las preguntas de salud sin dejar de parecer confiados y autoritarios, dijo la agencia.
CHATGPT, PLANIFICACIÓN DE COMIDAS Y ALERGIAS ALIMENTARIAS: EL ESTUDIO MIDE LA SEGURIDAD DE LA ‘DIETA ROBO’ SEGÚN LAS ADVERTENCIAS SONORAS DE LOS EXPERTOS
“Los LLM se pueden usar de forma indebida para generar y difundir desinformación altamente convincente en forma de contenido de texto, audio o video que es difícil para el público diferenciar del contenido de salud confiable”, afirmó la OMS.

Existe el riesgo de que los modelos de IA puedan generar respuestas incorrectas a las preguntas de salud, sin dejar de parecer confiados y autoritarios, dijo la agencia. (iStock)
Otra preocupación es que los LLM pueden recibir capacitación sobre datos sin el consentimiento de quienes los proporcionaron originalmente, y que es posible que no cuenten con las protecciones adecuadas para los datos confidenciales que los pacientes ingresan cuando buscan asesoramiento.
“Los LLM generan datos que parecen precisos y definitivos, pero que pueden ser completamente erróneos”.
“Aunque se compromete a aprovechar las nuevas tecnologías, incluida la IA y la salud digital, para mejorar la salud humana, la OMS recomienda que los responsables políticos garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los LLM”, dijo la organización.
Experto en IA sopesa riesgos y beneficios
Manny Krakaris, presidente ejecutivo de la Con base en San Francisco empresa de tecnología de la salud Augmedix, dijo que apoya el asesoramiento de la OMS.
“Este es un tema que evoluciona rápidamente y tener precaución es primordial para la seguridad y privacidad del paciente”, dijo a Fox News Digital en un correo electrónico.
LA NUEVA HERRAMIENTA DE IA AYUDA A LOS MÉDICOS A SIMALIZAR LA DOCUMENTACIÓN Y ENFOCARSE EN LOS PACIENTES
Augmedix aprovecha los LLM, junto con otras tecnologías, para producir documentación médica y soluciones de datos.
“Cuando se usan con las barandillas adecuadas y la supervisión humana para garantizar la calidad, los LLM pueden brindar una gran eficiencia”, dijo Krakaris. “Por ejemplo, se pueden usar para proporcionar resúmenes y optimizar grandes cantidades de datos rápidamente”.

La agencia recomendó precaución al usar “herramientas de modelo de lenguaje grande (LLM) generadas por IA para proteger y promover el bienestar humano, la seguridad y la autonomía humanas, y preservar la salud pública”. (iStock)
Él destacó algunos riesgos potencialessin embargo.
“Si bien los LLM se pueden usar como una herramienta de apoyo, los médicos y los pacientes no pueden confiar en los LLM como una solución independiente”, dijo Krakaris.
“Los LLM generan datos que parecen precisos y definitivos, pero pueden ser completamente erróneos, como señaló la OMS en su aviso”, continuó. “Esto puede tener consecuencias catastróficas, especialmente en el cuidado de la salud”.
HAGA CLIC AQUÍ PARA SUSCRIBIRSE A NUESTRO BOLETÍN DE SALUD
Al crear sus servicios de documentación médica ambiental, Augmedix combina LLM con reconocimiento automático de voz (ASR), procesamiento de lenguaje natural (NLP) y modelos de datos estructurados para ayudar a garantizar que la salida sea precisa y relevante, dijo Krakaris.
La IA tiene una ‘promesa’ pero requiere precaución y pruebas
Krakaris dijo que ve muchas promesas en el uso de IA en el cuidado de la saludsiempre que estas tecnologías se utilicen con precaución, debidamente probadas y guiadas por la participación humana.
HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
“La IA nunca reemplazará por completo a las personas, pero cuando se usa con los parámetros adecuados para garantizar que la calidad de la atención no se vea comprometida, puede crear eficiencias y, en última instancia, respaldar algunos de los problemas más importantes que afectan a la industria de la atención médica en la actualidad, incluida la escasez de médicos y el agotamiento. ,” él dijo.