A medida que aumentan las tasas de suicidio, la nueva plataforma de IA podría “llenar el vacío” en la atención de la salud mental, dicen investigadores de Boston
Después de una disminución de dos años, las tasas de suicidio en EE. UU. volvieron a aumentar en 2021, según un nuevo informe de los Centros para el Control y la Prevención de Enfermedades (CDC).
El suicidio es ahora la undécima causa principal de muerte en el país, y la segunda entre las personas de entre 10 y 35 años y la quinta entre las de 35 a 54 años, según el informe.
A medida que aumenta la necesidad de atención de la salud mental, los EE. UU. luchan contra la escasez de proveedores. Para ayudar a llenar este vacío, algunas compañías de tecnología médica han recurrido a inteligencia artificial como un medio para posiblemente facilitar el trabajo de los proveedores y hacer más accesible la atención al paciente.
CHATGPT PARA PROVEEDORES DE ATENCIÓN MÉDICA: ¿PUEDE EL CHATBOT DE IA FACILITAR EL TRABAJO DE LOS PROFESIONALES?
Sin embargo, hay advertencias relacionadas con esto. sigue leyendo
El estado de la atención de la salud mental.
Más de 160 millones de personas viven actualmente en “áreas con escasez de profesionales de la salud mental”, según la Administración de Recursos y Servicios de Salud (HRSA), una agencia del Departamento de Salud y Servicios Humanos de EE. UU.
Para 2024, se espera que el número total de psiquiatras alcance un nuevo mínimo, con una escasez proyectada de entre 14 280 y 31 091 personas.
“La falta de fondos del gobierno, la escasez de proveedores y el estigma continuo con respecto al tratamiento de salud mental son algunas de las mayores barreras”, dijo la Dra. Meghan Marcum, psicóloga jefe de AMFM Healthcare en Condado de Orange, Californiadijo a Fox News Digital.

Algunas empresas de tecnología médica han recurrido a la inteligencia artificial como un medio para mejorar el trabajo de los proveedores y hacer que la atención al paciente sea más accesible. (iStock)
“Las listas de espera para recibir terapia pueden ser largas y algunas personas necesitan servicios especializados como adicciones o tratamiento del trastorno alimentariolo que dificulta saber por dónde empezar cuando se trata de encontrar el proveedor adecuado”, dijo también Marcum.
Elevando la atención de la salud mental con IA
A Boston, Massachusetts La compañía de datos médicos llamada OM1 construyó recientemente una plataforma basada en IA, llamada PHenOM, para médicos.
La herramienta extrae datos de más de 9000 médicos que trabajan en 2500 ubicaciones en los 50 estados, según el Dr. Carl Marci, psiquiatra jefe y director general de salud mental y neurociencia de OM1.
Más de 160 millones de personas viven en “áreas de escasez de profesionales de la salud mental”.
Los médicos pueden usar esos datos para rastrear las tendencias de depresión, ansiedad, tendencias suicidas y otros trastornos de salud mental, dijo el doctor.
“Parte de la razón por la que estamos teniendo esta crisis de salud mental es que no hemos podido traer nuevas herramientas, tecnologías y tratamientos al lado de la cama tan rápido como nos gustaría”, dijo el Dr. Marci, quien también ha sido dirigiendo una pequeña práctica clínica a través de Mass General Brigham en Boston durante 20 años.
Eventualmente, la inteligencia artificial podría ayudar a los pacientes a obtener la atención que necesitan de manera más rápida y eficiente, dijo.
¿Puede la IA ayudar a reducir el riesgo de suicidio?
El modelo de IA de OM1 analiza miles de registros de pacientes y utiliza “modelos de lenguaje médico sofisticados” para identificar qué personas han expresado tendencias suicidas o han intentado suicidarse, dijo el Dr. Marci.
“Podemos ver todos nuestros datos y comenzar a construir modelos para predecir quién está en riesgo de ideación suicida”, dijo. “Un enfoque sería buscar resultados particulares, en este caso, el suicidio, y ver si podemos usar la IA para hacer un mejor trabajo al identificar a los pacientes en riesgo y luego dirigirles la atención”.
En el modelo tradicional de atención de la salud mental, un paciente ve a un psiquiatra por depresiónansiedad, PTSD, insomnio u otro trastorno.
Luego, el médico hace una recomendación de tratamiento basada únicamente en su propia experiencia y lo que dice el paciente, dijo el Dr. Marci.
CHATGPT Y ATENCIÓN MÉDICA: ¿PODRÍA EL CHATBOT DE IA CAMBIAR LA EXPERIENCIA DEL PACIENTE?
“Pronto, podré poner parte de la información del gráfico en un tablero, que luego generará tres ideas que tienen más probabilidades de tener más éxito para la depresión, la ansiedad o el insomnio que mi mejor suposición”, dijo a Fox News Digital. .
“La computadora podrá comparar esos parámetros que introduje en el sistema para el paciente… con 100 000 pacientes similares”.
En segundos, el médico podría acceder a la información para usarla como una herramienta de toma de decisiones para mejorar los resultados del paciente, dijo.
‘Llenar el vacío’ en la atención de la salud mental
Cuando los pacientes están en el sistema de salud mental durante muchos meses o años, es importante que los médicos puedan hacer un seguimiento de cómo progresa su enfermedad, algo que el mundo real no siempre capta, anotó el Dr. Marci.

Los médicos deben poder realizar un seguimiento del progreso de la enfermedad de los pacientes, algo que el mundo real no siempre capta, dijo la Dra. Marci de Boston. (iStock)
“La capacidad de usar computadoras, inteligencia artificial y ciencia de datos para hacer una evaluación clínica de la tabla sin que el paciente responda ninguna pregunta o el médico esté agobiado llena muchos vacíos”, dijo a Fox News Digital.
“Entonces podemos comenzar a aplicar otros modelos para observar y ver quién responde al tratamiento, a qué tipos de tratamiento responde y si recibe la atención que necesita”, añadió.
Beneficios y riesgos de ChatGPT en el cuidado de la salud mental
Con los crecientes desafíos de salud mental y la escasez generalizada de proveedores de salud mental, el Dr. Marci dijo que cree que los médicos comenzarán a usar ChatGPT, el modelo de lenguaje grande basado en IA que OpenAI lanzó en 2022, como un “terapeuta de modelo de lenguaje grande”. permitiendo a los médicos interactuar con los pacientes de una “manera clínicamente significativa”.
Potencialmente, los modelos como ChatGPT podrían servir como un recurso “fuera del horario de atención” para aquellos que necesitan ayuda en medio de la noche o durante un fin de semana cuando no pueden ir al consultorio del médico, “porque la salud mental no requiere un descanso”, dijo el Dr. Marci.
Estos modelos no están exentos de riesgos, admitió el médico.
“La oportunidad de tener una atención continua donde vive el paciente, en lugar de tener que ir a una oficina o subirse a un Zoom, que está respaldada por modelos sofisticados que en realidad tienen un valor terapéutico comprobado… [is] importante”, dijo también.
Pero estos modelos, que se basan tanto en la buena información como en la desinformación, no están exentos de riesgos, admitió el médico.

Con los crecientes desafíos de salud mental en el país y la escasez generalizada de proveedores de salud mental, algunas personas creen que los médicos comenzarán a usar ChatGPT para interactuar con los pacientes y “llenar los vacíos”. (iStock)
“El riesgo más obvio es para [these models] dar consejos literalmente mortales… y eso sería desastroso”, dijo.
Para minimizar estos riesgos, los modelos tendrían que filtrar la información errónea o agregar algunas verificaciones en los datos para eliminar cualquier consejo potencialmente malo, dijo el Dr. Marci.
Otros proveedores ven potencial pero piden precaución
Dr. Cameron Caswell, psiquiatra de adolescentes en Washington, DCha visto de primera mano la lucha que enfrentan los proveedores para mantenerse al día con la creciente necesidad de atención de salud mental.
“He hablado con personas que han estado en la lista de espera durante meses, no pueden encontrar a nadie que acepte su seguro o no pueden conectarse con un profesional que satisfaga sus necesidades específicas”, dijo a Fox News Digital.
CHATGPT RESPONDIÓ 25 PREGUNTAS SOBRE LA DETECCIÓN DEL CÁNCER DE MAMA, PERO ‘NO ESTÁ LISTO PARA EL MUNDO REAL’: HE AQUÍ EL POR QUÉ
“Quieren ayuda, pero parece que no pueden obtenerla. Esto solo aumenta sus sentimientos de desesperanza y desesperación”.
Aun así, el Dr. Caswell se muestra escéptico de que la IA sea la respuesta.
“Los programas como ChatGPT son fenomenales para proporcionar información, investigación, estrategias y herramientas, que pueden ser útiles en caso de apuro”, dijo.
“Sin embargo, la tecnología no proporciona lo que más necesita la gente: empatía y conexión humana”.

Los médicos pueden usar datos de IA para rastrear tendencias en depresión, ansiedad y otros trastornos de salud mental, dijo el Dr. Carl Marci de la compañía de tecnología médica OM1. Pero otro experto dijo: “La tecnología no proporciona lo que más necesita la gente: empatía y conexión humana”. (iStock)
“Si bien la IA puede proporcionar recordatorios positivos y técnicas rápidas de calma, me preocupa que si se usa para autodiagnosticarse, conducirá a diagnósticos erróneos, etiquetados erróneos y comportamientos de maltrato”, continuó.
“Es probable que esto exacerbe los problemas, no los solucione”.
HAGA CLIC AQUÍ PARA SUSCRIBIRSE A NUESTRO BOLETÍN DE SALUD
El Dr. Marcum del Condado de Orange, California, dijo que ve a la IA como una herramienta útil entre sesiones, o como una forma de ofrecer educación sobre un diagnóstico.
“También puede ayudar a los médicos con la documentación o la redacción de informes, lo que potencialmente puede ayudar a liberar tiempo para atender a más clientes durante la semana”, dijo a Fox News Digital.
HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
Sin embargo, existen preocupaciones éticas en curso, que incluyen la privacidad, la seguridad de los datos y la responsabilidad, que aún deben desarrollarse más, dijo.
“Creo que definitivamente veremos una tendencia hacia el uso de IA en tratamiento de la salud mental“, dijo el Dr. Marcum.
“Pero aún no se ha determinado el panorama exacto de cómo dará forma al campo”.