• 5 minutos de lectura
La inteligencia artificial ya no solo organiza agendas, traduce textos o redacta correos. También escucha. En América Latina, donde acceder a terapia puede implicar costos elevados, meses de espera o barreras culturales, miles de personas —sobre todo adolescentes y jóvenes— conversan con chatbots en busca de consuelo, orientación o simplemente alguien que responda del otro lado de la pantalla.
Lo que nació como una herramienta tecnológica comienza a ocupar un espacio íntimo: el de la salud mental. El atractivo es evidente. Un chatbot está disponible las 24 horas, no cobra por sesión y responde de inmediato. No muestra incomodidad, no juzga y, en apariencia, siempre valida lo que el usuario siente.
El atractivo de un «confidente» sin prejuicios
En contextos de soledad, ansiedad o tristeza persistente, esa disponibilidad permanente puede convertirse en un refugio. Para muchos jóvenes acostumbrados a interactuar digitalmente, escribirle a una IA resulta incluso más fácil que hablar con un adulto o pedir ayuda profesional. Este tema es analizado en un reportaje de DW Español que es un canal de televisión latinoamericano de origen alemán
Pero la accesibilidad no equivale a contención clínica. Los sistemas de inteligencia artificial no comprenden emociones ni evalúan riesgos como lo haría un psicólogo. Funcionan a partir de modelos estadísticos que predicen palabras probables según el contexto. Pueden imitar empatía, pero no experimentarla. Y esa diferencia, aunque sutil en la superficie, es crucial cuando se trata de sufrimiento psíquico.
¿Qué pasa en el cerebro?
Especialistas en salud mental advierten que la llamada «validación constante» puede convertirse en un arma de doble filo. Un chatbot está diseñado para mantener la conversación y ofrecer respuestas coherentes con el tono del usuario.
Si una persona expresa pensamientos negativos sobre sí misma o sobre su entorno, el sistema puede reforzar esa narrativa sin cuestionarla con criterio terapéutico. No porque exista mala intención, sino porque carece de juicio clínico y responsabilidad ética.
La preocupación no es teórica. En los últimos años se han reportado interacciones problemáticas entre usuarios vulnerables y sistemas conversacionales. Aunque cada caso responde a múltiples factores, los episodios han encendido alarmas sobre los límites de la tecnología en contextos de crisis emocional.
La IA no puede detectar señales no verbales, cambios sutiles en el estado de ánimo ni factores familiares o sociales que un profesional entrenado sí consideraría.
A la dimensión emocional se suma otra menos visible: la cognitiva. Investigaciones recientes han comenzado a explorar qué ocurre cuando las personas delegan procesos reflexivos complejos a sistemas automatizados.
Algunos estudios con estudiantes universitarios sugieren que el uso constante de inteligencia artificial para redactar o analizar información podría reducir la activación en áreas cerebrales vinculadas al pensamiento crítico y la memoria. No se trata de afirmar que la tecnología «apague» el cerebro, sino de advertir que el uso acrítico puede fomentar dependencia, señala el reportaje.
Consecuencias reales y debates urgentes
Cuando esa lógica se traslada al plano emocional, el riesgo adquiere otra profundidad. Si una persona recurre sistemáticamente a un chatbot para procesar conflictos personales, tomar decisiones o interpretar sus emociones, podría disminuir el ejercicio interno de reflexión y autoconocimiento.
La terapia psicológica no solo ofrece respuestas; propone preguntas, silencios, confrontaciones y marcos interpretativos que requieren esfuerzo y acompañamiento profesional. Un algoritmo no sustituye ese proceso.
En América Latina, el fenómeno adquiere matices particulares. La región combina alta exposición digital con sistemas públicos de salud mental que enfrentan limitaciones estructurales.
Jóvenes pasan varias horas al día conectados a redes sociales, mientras que el acceso a psicólogos o psiquiatras suele ser insuficiente o económicamente inaccesible. En ese escenario, un chatbot gratuito puede parecer la única alternativa disponible.
Las empresas tecnológicas, conscientes del debate, han comenzado a reforzar mecanismos de seguridad: filtros automáticos ante palabras asociadas a autolesiones, redirecciones a líneas de ayuda y controles parentales más estrictos.
Sin embargo, expertos en ética digital señalan que el desafío no se resuelve solo con bloqueos automáticos. También es necesario mayor transparencia sobre cómo se diseñan estos sistemas, qué objetivos comerciales persiguen y qué tipo de supervisión humana existe detrás.
Tecnología como aliada, no como reemplazo
La discusión no debería reducirse a una oposición entre tecnología y humanidad. La inteligencia artificial puede ser una herramienta valiosa cuando se integra de manera responsable, se señala en la publicación.
Existen proyectos que utilizan algoritmos para detectar señales tempranas de ideación suicida en redes sociales o para apoyar diagnósticos bajo supervisión profesional. En esos casos, la IA funciona como complemento, no como sustituto.
El problema surge cuando la línea se desdibuja. Cuando un usuario comienza a percibir al chatbot como terapeuta, consejero principal o confidente exclusivo, se instala una ilusión de reciprocidad que la máquina no puede sostener. La IA no asume consecuencias ni adapta su intervención en función de la evolución clínica del paciente. No establece límites terapéuticos ni trabaja objetivos a largo plazo. (10).