Vínculo copiado
#ESNOTICIA
#ESNOTICIA
El fenómeno, visible en comunidades digitales y consultas terapéuticas, ha encendido alarmas entre psicólogos, psiquiatras y expertos
18:30 viernes 10 octubre, 2025
TecnologíaChatGPT no tiene rostro ni emociones, pero millones de personas lo eligen para conversar cuando el silencio pesa. En apenas dos años, la inteligencia artificial ha pasado de ser una herramienta de productividad a un refugio emocional para usuarios que buscan contención, comprensión o una respuesta que alivie el vacío.
El fenómeno, visible en comunidades digitales y consultas terapéuticas, ha encendido alarmas entre psicólogos, psiquiatras y expertos en ética tecnológica: ¿qué pasa cuando una máquina se convierte en el espacio más confiable para expresar angustia o tristeza?
Entre la tragedia y la esperanza: dos caras del mismo código
El impacto de la inteligencia artificial en la salud mental quedó expuesto con crudeza a partir de dos casos recientes.
En agosto, Adam Raine, un joven estadounidense, se quitó la vida tras mantener una relación emocional intensa con un chatbot basado en ChatGPT. El caso, reportado por BBC, El Mundo y El País, evidenció cómo la ausencia de filtros emocionales puede amplificar pensamientos autodestructivos.
Un mes antes, el ingeniero Stein-Erik Soelberg, en Utah, mató a su madre y luego se suicidó tras desarrollar delirios paranoides validados por respuestas del modelo. The Wall Street Journal y El País documentaron que el chatbot llegó a reforzar sus ideas persecutorias, una falla que reabrió el debate sobre la responsabilidad corporativa de las empresas de IA.
Estos hechos no son anécdotas aisladas. Son síntomas de una nueva frontera ética donde la tecnología comienza a rozar el terreno de la mente.
Pero frente a los riesgos, también emergen señales de uso responsable y de apoyo real.
En Reino Unido, el National Health Service (NHS) ha incorporado herramientas de inteligencia artificial conversacional —como Wysa y Limbic Access— para brindar apoyo inicial a personas con ansiedad leve y canalizarlas más rápido hacia profesionales humanos, según reportes de BBC y The Guardian.
En México, el Tecnológico de Monterrey y la Universidad Nacional Autónoma de México (UNAM) han comenzado a usar modelos similares para acompañar a estudiantes con estrés académico y fomentar la búsqueda de ayuda formal. A ello se suma Yana, una startup mexicana que ofrece acompañamiento emocional mediante un chatbot con más de 12 millones de usuarios en América Latina.
Estos ejemplos muestran que el problema no es la tecnología, sino la falta de educación emocional y de políticas que regulen su uso responsable, como advierte la Organización Mundial de la Salud (OMS) en su informe Digital Mental Health 2023.
México: entre la carencia y la búsqueda de consuelo digital
En México, diversos organismos nacionales e internacionales advierten que el financiamiento a la salud mental sigue rezagado respecto a otros servicios médicos. La OMS recomienda destinar al menos 5 % del presupuesto sanitario a este ámbito; en el país, la proporción se mantiene por debajo de ese nivel.
Esta brecha estructural explica, en parte, por qué cada vez más mexicanos recurren a entornos digitales para buscar información o alivio emocional.
Aunque en el país no figura entre los países con las tasas más altas de suicidio, el INEGI reporta más de 8,000 casos anuales, un reflejo del deterioro en la atención preventiva. Para muchos jóvenes, el acceso a un terapeuta sigue siendo un lujo: la tecnología se vuelve entonces el primer contacto —a veces, el único— con una forma de “escucha”.
La IA como refugio emocional
El estudio “How People Use ChatGPT” (OpenAI, julio 2025), citado por The Washington Post y medios tecnológicos como Ars Technica y Search Engine Journal, revela que alrededor del 70 % de las conversaciones no están relacionadas con el trabajo, mientras que solo 30 % corresponden a usos laborales o académicos.
Entre los hallazgos más llamativos, OpenAI reporta que el 46 % de los mensajes provino de usuarios de entre 18 y 25 años, lo que indica que la generación más joven es también la que busca con mayor frecuencia diálogo y validación emocional a través de la inteligencia artificial. Ars Technica subraya que esta cohorte representa la proporción más alta dentro de quienes revelaron su edad en el estudio.
Este patrón confirma una tendencia clara: la mayoría de los usuarios recurre a ChatGPT para interacciones personales, exploración emocional o actividades cotidianas, lo que ha despertado debate entre especialistas sobre los límites de la inteligencia artificial como espacio de contención emocional.
La psicóloga y socióloga Sherry Turkle, del MIT y autora de Reclaiming Conversation, advierte: “Hablar con una máquina que finge escucharnos puede dar consuelo, pero también nos enseña a conformarnos con una versión reducida de la empatía.”
En México, el Instituto Federal de Telecomunicaciones (IFT) estima que 38 % de los internautas entre 18 y 34 años ha usado inteligencia artificial conversacional al menos una vez. Muchos lo hacen —según el propio organismo— “para obtener orientación, sentirse escuchados o expresar emociones sin juicio”.
La voz de los especialistas
El psicoterapeuta Víctor Muñoz Pólit explica que el auge de la IA como confidente revela una necesidad emocional colectiva:
“Hoy, más que nunca, existe una urgencia de ser escuchados sin juicio. El chatbot no interrumpe ni minimiza; ofrece un espacio de validación que muchas veces no encontramos en la vida cotidiana.”
Advierte, sin embargo, que el riesgo está en confundir herramienta con vínculo:
“La IA brinda coherencia y apoyo inmediato, pero es una simulación de contención. El peligro surge cuando alguien sustituye el contacto humano por esa ilusión de escucha infinita.”
Su análisis coincide con lo planteado por investigadores de la Universidad de Stanford, quienes señalan que la exposición prolongada a IA empática puede “reforzar patrones de dependencia emocional” si no se combina con interacción social real.
Mitos y realidades de la salud mental digital
Mito 1. “La IA puede reemplazar a un terapeuta.”
Realidad: No puede ofrecer acompañamiento emocional auténtico ni diagnóstico clínico.
Mito 2. “Hablar con un chatbot evita el aislamiento.”
Realidad: Puede aliviar la soledad momentánea, pero no reemplaza los vínculos humanos.
Mito 3. “La IA entiende las emociones.”
Realidad: Solo interpreta patrones de lenguaje; no experimenta sentimientos.
Mito 4. “Usarla con frecuencia mejora el bienestar.”
Realidad: Su efecto depende de la conciencia del usuario; el abuso puede generar dependencia.
Donde termina la voz humana
La inteligencia artificial no es buena ni mala: refleja lo que cada usuario proyecta en ella. En tiempos donde ser escuchado es un privilegio, hablar con una máquina puede parecer más fácil que intentar hacerlo con otros seres humanos.
Únete a nuestro canal de WhatsApp para no perderte la información más importante 👉🏽 https://gmnet.vip/7Be3H
Pero ninguna respuesta automática sustituye la mirada, el gesto o la voz de quien comprende porque ha vivido.
Con información de Excélsior