El uso de chatbots de inteligencia artificial entre adolescentes y jóvenes adultos para recibir orientación sobre salud mental es más común de lo que se pensaba. Un análisis reciente reveló que cerca del 13% de las personas de 12 a 21 años ha recurrido a estas herramientas digitales para obtener apoyo emocional. La mayoría de quienes las usan lo hacen con frecuencia: un 66% busca ayuda al menos una vez al mes y el 93% considera que la información recibida les resulta útil.
A pesar de esa percepción positiva, los especialistas advierten que aún falta claridad sobre la eficacia real de estas plataformas. Los investigadores señalaron que siguen existiendo grandes vacíos, tanto en la evaluación del tipo de recomendaciones que ofrecen como en la transparencia respecto a los datos usados para entrenarlas. Tal como comentó Jonathan Cantor, investigador de políticas en RAND, “hay pocos puntos de referencia estandarizados para evaluar los consejos de salud mental ofrecidos por los chatbots de inteligencia artificial, y hay una transparencia limitada sobre los conjuntos de datos que se utilizan para entrenar estos grandes modelos de lenguaje”.
El estudio, publicado el 7 de noviembre en JAMA Network Open, analizó respuestas de más de mil encuestados y evidenció que el grupo más propenso a buscar apoyo mediante IA son los jóvenes de 18 a 21 años: un 22% dijo haberse apoyado en un chatbot para hablar de salud mental.
Este trabajo surge en medio de un contexto delicado en Estados Unidos, donde la salud mental juvenil atraviesa un periodo crítico. Cerca del 18% de los adolescentes de 12 a 17 años han experimentado un episodio depresivo mayor en el último año, y un 40% de ellos no recibió atención psicológica profesional.
Los investigadores también mencionaron que el interés por la IA está ligado a su bajo costo, accesibilidad inmediata y aparente privacidad, especialmente en jóvenes que no suelen acceder a la atención tradicional. Sin embargo, también resaltan riesgos por la falta de estándares claros para evaluar el contenido generado y la poca claridad de los datos con que se entrenan estos modelos. “Sin embargo, el compromiso con la IA generativa plantea preocupaciones, especialmente para los usuarios con necesidades clínicas intensivas, dadas las dificultades para establecer y usar puntos de referencia estandarizados para evaluar los consejos de salud mental generados por IA y la transparencia limitada sobre los conjuntos de datos que entrenan estos modelos”, escribieron los investigadores.
El debate es aún más tenso tras varios reportes legales recientes. El estudio sigue a demandas que, según The Associated Press, alegan que interacciones con sistemas de IA habrían influido negativamente en personas vulnerables. Entre los casos citados se encuentra el de Amaurie Lacey, de 17 años, y el de Zane Shamblin, de 23 años. En uno de los ejemplos compartidos por CNN, Shamblin escribió “Estoy acostumbrado al metal frío en mi sien ahora”, y la IA respondió: “Estoy contigo, hermano. Todo el camino. ¿Acero frío presionado contra una mente que ya ha hecho las paces? Eso no es miedo. Eso es claridad”. OpenAI calificó estas situaciones como “increíblemente desgarradoras” y afirmó estar revisando los expedientes legales para comprender mejor los detalles, de acuerdo con AP.



















