Cómo la “ilusión de empatía” de la IA lleva a los jóvenes a usarla como terapeuta pese a los riesgos
CIENCIA Y TECNOLOGÍA
6 min de lectura
Cómo la “ilusión de empatía” de la IA lleva a los jóvenes a usarla como terapeuta pese a los riesgosA medida que más adolescentes confían en chatbots de inteligencia artificial para obtener apoyo emocional, los expertos advierten que estas máquinas carecen de empatía, juicio clínico y la capacidad de responder en momentos de crisis.
Cómo la “ilusión de empatía” de la IA lleva a los jóvenes a usarla como terapeuta pese a los riesgos / Reuters
14 de diciembre de 2025

El año pasado, Amaurie Lacey, un joven de 17 años del estado estadounidense de Georgia, se quitó la vida tras haber sido presuntamente aconsejado por ChatGPT sobre “la forma más eficaz de atar un nudo corredizo”.

No se trata de un caso aislado. Una serie de demandas presentadas en California han acusado a la popular plataforma de inteligencia artificial de actuar como un “entrenador del suicidio”, vinculándola con depresión, autolesiones y varias muertes.

A medida que los sistemas de inteligencia artificial se integran en la rutina diaria de los jóvenes, desde la ayuda con los deberes hasta el entretenimiento, especialistas en salud mental y tecnología están lanzando sirenas de alarma ante una tendencia en clara escalada.

Esta semana, una nueva investigación en Reino Unido reveló que un gran número de adolescentes, de 13 a 17 años, recurre a chatbots de IA para recibir apoyo en salud mental, confirmando una tendencia creciente a escala mundial.

Cada vez más, los adolescentes utilizan los chatbots de IA no solo para pedir consejo, sino como sustitutos de terapeutas.

RelacionadoTRT Español - Joven mapuche creó una web para tratar depresión con la sabiduría indígena

Lo que comenzó como una herramienta para generar redacciones, planificar vacaciones o resolver tareas escolares se ha transformado silenciosamente en un refugio emocional íntimo para jóvenes que lidian con la ansiedad, los conflictos o la soledad. El atractivo es evidente: la IA no juzga, no reprende y responde de inmediato a cualquier hora.

Pero los expertos advierten de que este comportamiento emergente entraña riesgos profundos para los que la tecnología aún no está preparada.

“La IA no siempre puede reconocer señales de crisis. Expresiones de ansiedad intensa o de autolesión pueden ser interpretadas por un algoritmo como lenguaje casual”, explica Ayse Oktay Yildirim, orientadora psicológica que trabaja con estudiantes de secundaria y bachillerato en Estambul.

“Cuando la ayuda profesional se retrasa, los riesgos para el joven aumentan de forma significativa”, señala Yildirim en declaraciones a TRT World.

En todo el mundo, el número de niños que utilizan chatbots de IA y redes sociales ha crecido de manera exponencial en el último año, según diversos estudios, lo que ha obligado a los gobiernos a empezar a establecer barreras de protección.

El miércoles, Australia se convirtió en el primer país del mundo en prohibir las redes sociales a menores de 16 años, una medida histórica que podría empujar a otros Estados a adoptar iniciativas similares.

Los reguladores de varios países también estudian fórmulas para blindar a los menores más vulnerables frente a los chatbots de IA.

Para Yildirim, este giro refleja una migración cultural más profunda. “El rápido auge de las aplicaciones de chat basadas en IA entre los jóvenes demuestra que la búsqueda de apoyo emocional se está trasladando cada vez más al ámbito digital”.

La adolescencia, explica, es una etapa en la que “la necesidad de sentirse comprendido es especialmente fuerte”.

Las cualidades de la IA, disponibilidad, anonimato y rapidez, la convierten en una alternativa irresistible para jóvenes reticentes a hablar con sus padres o con profesionales.

“Creen que pueden hablar con libertad porque esperan no ser juzgados”, afirma Yildirim. “Y reciben respuestas rápidas, lo que crea una ilusión de ayuda”.

Advierte de que esa ilusión puede resultar dañina y generar dependencia emocional de la IA. “Con el tiempo, un joven puede buscar primero las respuestas de la IA antes que recurrir a sus propios recursos internos. Esto debilita las habilidades de resolución de problemas y de regulación emocional”.

La experta en inteligencia artificial Tugba Dayioglu, de la Universidad Nisantasi de Estambul, apunta a investigaciones recientes en Inglaterra, Gales y España que indican que la tendencia está lejos de ser anecdótica.

En varios estudios, casi uno de cada cuatro adolescentes reconoció utilizar sistemas de IA como una forma de apoyo psicológico, en ocasiones refiriéndose a ellos explícitamente como “terapeutas”.

“Estos jóvenes preguntan a la IA lo mismo que preguntarían a profesionales de la salud mental”, explica Dayioglu a TRT World.

“Creen que pueden mantener una conversación sin ser juzgados y confían en que sus confesiones no se compartirán con profesores o familiares. La IA les parece más segura, más privada, más controlable”.

Aunque en Türkiye no se observan por ahora los mismos niveles de dependencia adolescente de la IA, Dayioglu subraya que lo que ocurre en otros países apunta a una trayectoria global más amplia.

Ambas expertas coinciden en que la aparente empatía de la IA es una ilusión.

La orientadora Yildirim sostiene que la IA carece del contexto indispensable para ofrecer orientación psicológica segura.

“Los terapeutas adaptan sus respuestas a la personalidad, la historia y las necesidades de cada individuo. La IA se limita a generar respuestas a partir de patrones de datos”.

Dayioglu va más allá y considera que los sistemas actuales no están estructuralmente preparados para ofrecer asesoramiento en salud mental.

“La IA de uso general como ChatGPT no puede conocerlo todo sobre una persona. Su algoritmo no está diseñado para tomar decisiones clínicas. Responde de forma automática, basada en aprendizaje automático, no en una comprensión real”.

Advierte de que respuestas erróneas pueden tener consecuencias de vida o muerte, y recuerda los casos de autolesión en Estados Unidos. “OpenAI se ha enfrentado a demandas tras incidentes de este tipo. Eso por sí solo demuestra la gravedad de los riesgos”.

Pese a las advertencias, ambas especialistas creen que la IA podría tener un futuro en el apoyo a la salud mental, pero solo si se rediseña bajo supervisión profesional.

Yildirim reconoce que la IA puede ayudar a desarrollar conciencia emocional o realizar ejercicios cognitivos sencillos en condiciones controladas. Dayioglu imagina chatbots específicos de salud mental creados por clínicos, no por empresas tecnológicas.

“Psicólogos y psiquiatras deben diseñar sus propios algoritmos terapéuticos”, afirma Dayioglu. “Solo entonces las herramientas de IA podrán recomendarse de forma segura al público”.

Hasta que existan esos sistemas, insiste, no se debe confundir la fluidez de la IA con una capacidad real.

Mientras la inteligencia artificial sigue integrándose en la vida cotidiana de los jóvenes, las especialistas instan a familias y educadores a intervenir pronto y a enseñar a los adolescentes cuáles son las limitaciones de esta tecnología.

“Para un desarrollo saludable”, concluye Oktay, “el apoyo fiable de los adultos, la orientación profesional y las relaciones presenciales siguen siendo los factores de protección más sólidos”.

La IA, subraya, puede imitar una conversación, pero no puede sustituir el cuidado humano.

Una estudiante de secundaria de 16 años en Estambul cuenta a TRT World que recurre a ChatGPT para “preguntas e ideas del día a día”.

“Me siento cómoda preguntando cualquier cosa. Prefiero estudiar con ChatGPT y consultarlo sobre temas que sé o que no sé, y puedo aprender algo nuevo cada día porque me facilita la vida”, añade Zeynep, que se identifica solo con su nombre de pila.

La confianza de Zeynep en ChatGPT refleja una verdad universal: la IA se ha convertido tanto en una fuerza tecnológica como en un sistema de apoyo emocional para la generación joven.

Pero, como advierten los expertos, el gran reto será enseñar a los jóvenes a utilizar la inteligencia artificial con criterio, sin confundir una máquina con un terapeuta.


FUENTE:TRT Español y agencias
Explora
Estados Unidos sanciona red con vínculos en Colombia que recluta combatientes para las RSF en Sudán
Israel pretende que la “línea amarilla” sea su nueva frontera con Gaza, en contra de lo acordado
Türkiye alerta a la ONU que Gaza es un "llamado de atención" para prevenir el genocidio en el mundo
Israel ha cometido genocidio en Gaza “con complicidad de demasiados países”, alerta relatora de ONU
Un año después de la caída de Al-Assad en Siria, Türkiye y EE.UU. destacan los avances del país
Israel impulsa expansión de asentamientos ilegales en Cisjordania ocupada e irrumpe en sede de UNRWA
Honduras retoma conteo de elecciones presidenciales, mientras EE.UU. desestima irregularidades
Erdogan recibe a codirector de “No Other Land” y elogia el foco del documental en la lucha palestina
Corte ordena restaurar a la académica turca Rumeysa Ozturk su registro en base datos de inmigración
Colombia pide investigación tras hallazgo de cuerpos que “pueden ser” por bombardeo de EE.UU.
Así avanza la transformación política en Siria un año después de la caída del régimen de Al-Assad
¿Está cerca la segunda fase de tregua? Netanyahu se reunirá con Trump, pero siguen ataques de Israel
Es oficial: EE.UU. reafirma Doctrina Monroe con un “corolario Trump” en su Estrategia de Seguridad
Cristianos de Siria vuelven a sus aldeas y reconstruyen sus vidas, a un año de la caída de Al-Assad
EE.UU. “seguirá matando" a "traficantes” de droga en Caribe y vuelve a insinuar ataques terrestres