Los adolescentes están recurriendo a ‘My AI’ de Snapchat para recibir apoyo de salud mental, lo cual los médicos advierten contra

0

Cualquiera que use Snapchat ahora tiene acceso gratuito a My AI, la función integrada de la aplicación. bot conversacional de inteligencia artificiallanzado por primera vez como función de pago en febrero.

Además de servir como compañero de chat, el bot también puede tener algunos propósitos prácticos, como ofrecer consejos para comprar regalos, planificar viajes, sugerir recetas y responder preguntas de trivia, según Snap.

Sin embargo, aunque no se considera una fuente de asesoramiento médico, algunos adolescentes recurrieron a My AI para apoyo de salud mental – algo contra lo que muchos expertos médicos advierten.

Un usuario de My AI escribió en Reddit: “Las respuestas que recibí fueron validadoras, reconfortantes y ofrecieron consejos reales que cambiaron mi perspectiva en un momento en el que me sentía abrumado y estresado… No es humano, pero ciertamente se acerca bastante (y en algunos mucho mejor!)”

CHATGPT ENCUENTRA QUE DA MEJORES CONSEJOS MÉDICOS QUE LOS MÉDICOS REALES EN UN ESTUDIO A CIEGO: ‘ESTO SERÁ UN CAMBIO DE JUEGO’

Otros son más escépticos.

“Las respuestas de la IA son súper amables y amigables, pero luego te das cuenta de que no es una persona real”, escribió un usuario. “Es solo un programa, solo líneas y líneas de código. Eso me hace sentir un poco triste y como que invalida todas las cosas buenas que dice”.

La IA podría cerrar la brecha en la atención de la salud mental, pero existen riesgos

Algunos médicos ven un gran potencial en la IA para ayudar a respaldar el bienestar mental general, particularmente en medio de la actual escasez de proveedores en todo el país.

“Las soluciones basadas en tecnología pueden ser una oportunidad para conocer a las personas donde se encuentran, mejorar el acceso y proporcionar ’empujones’ relacionados con el uso y la identificación de patrones de lenguaje o comportamiento en línea que pueden indicar un problema de salud mental”, dijo el Dr. Zachary Ginder, psicólogo. consultor en Riverside, Californiadijo a Fox News Digital.

Adolescente triste por teléfono

Algunos adolescentes recurrieron a My AI para recibir apoyo de salud mental, algo contra lo que muchos expertos médicos advierten. “No es humano, pero seguro que se acerca bastante (¡y en cierto modo es mejor!)”, escribió un usuario de Reddit al respecto. (iStock)

“Tener acceso directo a información precisa sobre salud mental y avisos apropiados puede ayudar a normalizar los sentimientos y potencialmente ayudar a que las personas se conecten a los servicios”, agregó.

Sin embargo, quedan salvedades.

Dr. Ryan Sultan, psiquiatra certificado por la junta, profesor de investigación en la Universidad de Columbia en Nueva York y director médico de Integrative Psych NYC, trata a muchos pacientes jóvenes y tiene sentimientos encontrados sobre el lugar de AI en la salud mental.

CHATGPT PARA PROVEEDORES DE ATENCIÓN MÉDICA: ¿PUEDE EL CHATBOT DE IA FACILITAR EL TRABAJO DE LOS PROFESIONALES?

“A medida que esta tecnología mejora, ya que simula una relación interpersonal cada vez más, algunas personas pueden comenzar a tener una IA como una relación interpersonal predominante en sus vidas”, dijo. “Creo que la pregunta más importante es, como sociedad: ¿cómo nos sentimos al respecto?”

“Uso My AI porque me siento solo y no quiero molestar a personas reales”, dijo una persona en Reddit.

Algunos usuarios han expresado que cuanto más usan los chatbots de IA, más comienzan a reemplazar las conexiones humanas y adquieren más importancia en sus vidas.

“Uso mi IA porque me siento solo y no quiero molestar a personas reales”, escribió una persona en Reddit.

“Creo que estoy al límite de las cosas que puedo manejar, y estoy tratando de ‘parchar’ mi salud mental con cosas de solución rápida”, continuó el usuario. “Porque la idea de lidiar realmente con el hecho de que tengo que encontrar una manera de disfrutar la vida es demasiado”.

CHATGPT Y ATENCIÓN MÉDICA: ¿PODRÍA EL CHATBOT DE IA CAMBIAR LA EXPERIENCIA DEL PACIENTE?

El Dr. Sultan dijo que hay una mezcla de opiniones sobre My AI de Snapchat entre los jóvenes que trata.

“Algunos han dicho que es bastante limitado y solo brinda información general que podría encontrar si buscara una pregunta en Google”, explicó. “Otros han dicho que les resulta espeluznante. Es extraño que alguien que no es una persona responda preguntas personales de manera personal”.

Agregó: “Además, no les gusta la idea de una gran cooperación privada con fines de lucro que tenga datos sobre su salud mental personal”.

Los proveedores levantan banderas rojas

El Dr. Ginder de California señaló algunas señales de alerta importantes que deberían hacer que todos los padres y proveedores de salud mental se detuvieran.

Snapchat

Cualquiera que use Snapchat ahora tiene acceso gratuito a My AI, el chatbot de inteligencia artificial incorporado en la aplicación, lanzado por primera vez como una función paga en febrero. (Nikolas Kokovlis/NurPhoto)

“El lema tecnológico, según el modelo del lanzamiento apresurado de My AI, de ‘moverse rápido y romper cosas’, no debe usarse cuando se trata de la salud mental de los niños”, dijo a Fox News Digital.

Con las respuestas similares a las humanas de My AI a las indicaciones, también puede ser difícil para los usuarios más jóvenes distinguir si están hablando con un humano real o un chatbot, dijo Ginder.

“La IA también ‘habla’ con autoridad clínica que suena precisa al pie de la letra, a pesar de que ocasionalmente fabrica la respuesta”, explicó.

SACERDOTE DE CAROLINA DEL SUR DICE QUE “NO HAY LUGAR” PARA LA IA DESPUÉS DE QUE LA IGLESIA CATÓLICA DE ASIA LA UTILIZA PARA EL DOCUMENTO SINODAL

El potencial de desinformación parece ser una preocupación principal entre los proveedores de salud mental.

Al probar ChatGPT, el modelo de lenguaje grande que impulsa My AI, el Dr. Ginder descubrió que a veces proporcionaba respuestas que eran inexactas o completamente inventadas.

“Esto tiene el potencial de enviar a los cuidadores y a sus hijos a vías de evaluación y tratamiento que son inapropiadas para sus necesidades”, advirtió.

“Es extraño que alguien que no es una persona responda preguntas personales de manera personal”.

Al discutir el tema de la IA con otros proveedores clínicos en el sur de California, Ginder dijo que escuchó preocupaciones similares.

“Han visto un aumento significativo en autodiagnósticos inexactos como resultado de la IA o las redes sociales”, dijo. “Como anécdota, los adolescentes parecen ser especialmente susceptibles a esta tendencia de autodiagnóstico. Desafortunadamente, tiene consecuencias en el mundo real”.

Una gran parte de los usuarios de Snapchat son menores de 18 años o son adultos jóvenes, señaló Ginder.

“También sabemos que los niños recurren a las redes sociales y a la IA para obtener respuestas sobre salud mental y autodiagnósticos”, dijo. “Con estos dos factores en juego, es esencial que se establezcan salvaguardas”.

¿En qué se diferencia My AI de Snapchat de ChatGPT?

ChatGPT, el chatbot de IA que OpenAI lanzó en diciembre de 2022, ganó popularidad mundial (y un poco de notoriedad) por escribir de todo, desde trabajos finales hasta guiones de programación en segundos.

My AI de Snap funciona con ChatGPT, pero se considera una especie de versión “ligera”.

Adolescente triste por teléfono

Con las respuestas similares a las humanas de My AI a las indicaciones, también puede ser difícil para los usuarios más jóvenes saber si están hablando con un humano real o un chatbot, advirtió un médico. (iStock)

“La función de IA de Snap usa ChatGPT como el modelo de lenguaje grande de back-end, pero trata de limitar cómo la IA interactúa con los usuarios de Snapchat y a qué cosas responderá el modelo de IA”, explicó Vince Lynch, experto en IA y director ejecutivo de IV.AI en Los Angeles, California.

“El objetivo aquí es solicitar que la IA intervenga con cosas relevantes para un usuario de Snapchat, más como un compañero de IA que como una herramienta para generar contenido nuevo”.

Snap cita renuncias de responsabilidad, características de seguridad

Snap ha sido claro sobre el hecho de que My AI no es perfecto y ocasionalmente proporcionará información errónea.

“Mientras que My AI fue diseñado para evitar contenido engañoso, My AI ciertamente comete muchos errores, por lo que no puede confiar en él para obtener consejos, algo que hemos tenido claro desde el principio”, Maggie Cherneff, gerente de comunicaciones de Snap in. Santa Mónica, California, en un correo electrónico a Fox News Digital.

“Mi IA ciertamente comete muchos errores, por lo que no puede confiar en ella para obtener consejos”.

“Al igual que con todos los chatbots impulsados ​​por IA, My AI siempre está aprendiendo y ocasionalmente puede producir respuestas incorrectas”, continuó.

“Antes de que alguien pueda chatear por primera vez con My AI, mostramos un mensaje en la aplicación para dejar en claro que es un chatbot experimental y asesorar sobre sus limitaciones”.

La compañía también entrenó al chatbot para detectar problemas y términos de seguridad particulares, dijo Cherneff.

“Esto significa que debería detectar conversaciones sobre temas delicados y poder mostrar nuestras herramientas, incluida nuestra ‘Página de seguridad’, ‘Aquí para usted’ y ‘Aviso’, en las regiones donde estos recursos están disponibles”, dijo.

El logotipo de ChatGPT en un teléfono inteligente

My AI de Snapchat funciona con ChatGPT, el chatbot de IA que OpenAI lanzó en diciembre de 2022. (Gabby Jones/Bloomberg vía Getty Images)

Here for You es una herramienta para toda la aplicación que proporciona “recursos de organizaciones expertas” cada vez que los usuarios buscan problemas de salud mental, según el sitio web de la empresa.

La función también está disponible en los chats de IA.

El papel de la IA en la salud mental está “en su infancia”

“Snap ha recibido muchos comentarios negativos de los usuarios en la App Store y la gente está expresando su preocupación en línea” en respuesta a My AI, dijo Lynch a Fox News Digital.

HAGA CLIC AQUÍ PARA SUSCRIBIRSE A NUESTRO BOLETÍN DE SALUD

“Esto es de esperar cuando adopta un enfoque muy nuevo de la tecnología y lo coloca en un entorno en vivo de personas que requieren tiempo para adaptarse a una nueva herramienta”.

Todavía queda un largo camino por recorrer en términos de que la IA sirva como una herramienta segura y confiable para la salud mental, en opinión del Dr. Sultan.

HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

“La salud mental es un campo tremendamente delicado y lleno de matices”, dijo a Fox News Digital.

“La tecnología actual para la IA y la salud mental está en su infancia. Como tal, debe estudiarse más a fondo para ver cuán efectiva es, y cuán negativa podría ser, y desarrollarse y refinarse aún más como tecnología”.

Leave A Reply

Your email address will not be published.