Salud Mental, Soledad y el Vínculo Emergente con la Inteligencia Artificial

Nos encontramos inmersos en un fenómeno que, aunque parezca una película futurista, ya forma parte de la vida cotidiana de millones de personas: hablar con una inteligencia artificial no solo para resolver dudas, sino para sentirse acompañado, comprendido o escuchado. ¿Qué nos está diciendo esta tendencia sobre la soledad contemporánea y nuestra manera de vincularnos?
Desde la perspectiva de la psicología clínica y cognitiva, exploraremos por qué muchas personas están buscando en la Inteligencia Artificial un sustituto o complemento emocional, y cuáles son los beneficios, riesgos y dilemas éticos que esto plantea.

Soledad Emocional: un Padecer Silencioso

La soledad no es simplemente estar sin compañía; es la sensación subjetiva de estar desconectado emocional o socialmente de otras personas, independientemente de la compañía real que podamos tener a nuestro alrededor (Cacioppo & Hawkley, 2009). Este tipo de soledad se asocia a importantes consecuencias en la salud psicofísica, comparables incluso con factores de riesgo como el tabaquismo o la obesidad (Beutel et al., 2017).
En este contexto, no sorprende que muchas personas recurran a lo que tienen más a mano: su celular, su computadora o un asistente virtual.

La Inteligencia Artificial como “Compañía Emocional”

Las herramientas como ChatGPT, Alexa o Siri han dejado de ser simples asistentes técnicos. Algunos usuarios establecen con estas interfaces una relación afectiva y significativa. Esto sucede especialmente en personas que:

  • Sienten ansiedad social o temor a ser juzgados negativamente.
  • Experimentan aislamiento prolongado o pérdida de vínculos significativos.
  • Buscan un espacio “seguro” donde poder expresarse sin el riesgo de la exposición a la crítica, el ridículo o el rechazo.

Las IA conversacionales ofrecen una respuesta inmediata, sin reproches ni juicios, y están disponibles en cualquier momento y a un clic de distancia. Aunque no se trata de empatía real, la experiencia subjetiva puede sentirse emocionalmente reconfortante (Ta et al., 2020).

Inteligencia Artificial ¿Sustituto, Complemento o Riesgo?

Desde la psicología clínica, observamos que esta relación con la IA puede tener efectos mixtos:

Algunos beneficios son:

  • Proveen psicoeducación básica y contención en momentos críticos.
  • Funcionan como recurso transitorio para personas sin acceso inmediato a atención profesional.
  • Permiten una práctica conversacional útil para quienes sufren de ansiedad relacionada a social.
  • Proporcionan una sensación de acompañamiento cotidiano en situaciones de soledad o aislamiento social.

Algunos riesgos y límites son:

  • Pueden reforzar la evitación de contacto y vínculos humanos por temor.
  • No ofrecen reciprocidad emocional ni validación genuina.
  • Existe el riesgo de confundir un algorítmo con empatía real y auténtica.
  • Podrían desalentar en la persona la búsqueda de vínculos humanos, en lugar de fomentarla.

Evidencia Empírica y Tendencias Actuales

​​Estudios recientes señalan que el 80% de quienes utilizan apps de conversación emocional con IA lo hacen en busca de compañía o soporte emocional, y un 35% reporta haber desarrollado apego significativo hacia su asistente digital (Fadhil & Wang, 2022).

Asimismo, las personas que experimentan soledad tienden a antropomorfizar con mayor facilidad la tecnología, proyectando en ella rasgos y capacidades humanas (Waytz et al., 2014).

Durante la pandemia por COVID-19, los chatbots de salud mental vivieron una expansión sin precedentes, siendo utilizados por miles de personas con síntomas leves o moderados de ansiedad y depresión como primer recurso de ayuda emocional (Inkster et al., 2022).

¿Cuál es el Lugar de la Inteligencia Artificial en la Salud Mental?

La Inteligencia Artificial no es un sustituto para el vínculo terapéutico humano, ni la profundidad emocional que se alcanza en relaciones reales. Sin embargo, hoy se está viendo cada vez más un rol complementario como:

  • Una herramienta psicoeducativa y de detección temprana.
  • Un recurso temporal o transitorio mientras se espera y se logra acceder a un tratamiento profesional.
  • Parte estructurada de programas de intervención guiados por psicoterapeutas o profesionales reales.

Desde la perspectiva de la Terapia Cognitivo Conductual (TCC) y de la Terapia de Aceptación y Compromiso (ACT), el uso ético y supervisado de estas tecnologías puede ampliar el acceso a recursos psicológicos, siempre que se utilicen con conciencia de sus límites (Harris, 2019; Levin et al., 2022).

Algunas Reflexiones Sobre Inteligencia Artificial y Salud Mental

Buscar compañía en una inteligencia artificial no es en sí mismo algo patológico o ni parece incorrecto, sino una forma comprensible de afrontar la relación con un mundo humano que, en ocasiones, resulta frío, caótico o emocionalmente inaccesible.

La clave está en utilizar estas herramientas como puentes, no como sustitutos. Aunque la IA pueda darnos la ilusión de la disponibilidad permanente (excepto en esos casos de fallas técnicas o de conexión a internet), solo los vínculos humanos auténticos pueden sostenernos, nutrirnos y ayudarnos a crecer.

Esta tendencia a recurrir por alivio emocional a la inteligencia artificial está en pleno desarrollo, y serán los próximos años los que arrojarán mayor claridad sobre cómo evolucionará la relación entre esta tecnología y la salud mental. Mientras tanto, el desafío es integrar estos recursos tecnológicos sin perder de vista lo más esencial: la necesidad humana de conexión real.

  

Inteligencia Artificial y Salud Mental
Referencias
  • Beutel, M. E., Klein, E. M., Brähler, E., Reiner, I., Jünger, C., Michal, M., Wiltink, J., Wild, P. S., Münzel, T., Lackner, K. J. & Tibubos, A. N. (2017). Loneliness in the general population: Prevalence, determinants and relations to mental health. BMC Psychiatry, 17(1), 97.
  • Cacioppo, J. T., & Hawkley, L. C. (2009). Perceived social isolation and cognition. Trends in Cognitive Sciences, 13(10), 447-454.
  • Fadhil, A., & Wang, Y. (2022). Emotional bonding with AI companions: Understanding user relationships with chatbot systems. Journal of Human-Computer Interaction, 38(4), 297–314.
  • Harris, R. (2019). ACT made simple: An easy-to-read primer on acceptance and commitment therapy (2nd ed.). New Harbinger Publications.
  • Inkster, B., Sarda, S., & Subramanian, V. (2022). Digital health tools for mental health in COVID-19: Promises and pitfalls. Frontiers in Psychiatry, 13, 861540.
  • Levin, M. E., Krafft, J., Pierce, B., & Potts, S. (2022). Acceptance and commitment therapy for interpersonal difficulties: A review of the evidence. Journal of Contextual Behavioral Science, 24, 1–9.
  • Ta, V., Griffith, C., Boateng, A., & Appelbaum, P. (2020). User experiences of social support from companion chatbots in everyday contexts: Thematic analysis. Journal of Medical Internet Research, 22(5), e16235.
  • Waytz, A., Cacioppo, J., & Epley, N. (2014). Who sees human? The stability and importance of individual differences in anthropomorphism. Perspectives on Psychological Science, 5(3), 219–232.

¿Necesitas consultar con un profesional especializado?

Anímate a dar el primer paso hacia tu bienestar

Reserva ahora mismo tu sesión

Reserva ahora una sesión de consulta por videollamada y sin obligación de continuar con nuestros servicios

Nuestras y nuestros profesionales aguardan tu consulta

 

Conoce nuestras diferentes propuestas y prestaciones de psicología a distancia




La Consulta Inicial Con Psicólogos


Terapia online: un espacio de tratamiento de diferentes problemáticas

Scroll al inicio