top of page

¿Pueden los chatbots reemplazar a psicólog@s human@s?

Por Mallerly Yoza

Con la llegada de la inteligencia artificial a la vida cotidiana, muchas personas han comenzado a utilizar estas herramientas digitales como una vía para expresar sus emociones, compartir sus dificultades diarias e incluso compararlas con la experiencia de hablar con psicólog@s. Pero surge una pregunta inevitable: ¿puede realmente la IA sustituir a un tratamiento terapéutico profesional?

Desde una perspectiva inicial, interactuar con un chatbot puede generar una sensación de confort. No hay una persona del otro lado que pueda juzgar, lo cual facilita la apertura emocional. Además, su disponibilidad inmediata y el acceso desde dispositivos como celulares o computadoras lo hacen una opción atractiva para quienes enfrentan barreras económicas, geográficas o personales para acudir a terapia.


Sin embargo, es importante llamar a estas interacciones por su verdadero nombre: acompañamiento digital. Si bien las IA pueden ser útiles en momentos difíciles, brindando validación emocional, escuchando sin interrupciones y ofreciendo consejos prácticos, su función dista mucho de lo que implica un proceso terapéutico profesional.


Las respuestas empáticas y el lenguaje validante que caracteriza a herramientas como ChatGPT pueden ayudar momentáneamente a quien busca consuelo o guía. La IA puede incluso recordar lo que se le cuenta, ofrecer sugerencias de afrontamiento y explorar emociones en conversaciones repetidas. Sin embargo, tiende a responder de forma complaciente o reforzando aquello que el usuario desea oír, lo cual, si bien puede aliviar momentáneamente, no siempre favorece un verdadero cambio psicológico.

Las respuestas de la IA pueden ser reconfortantes a corto plazo, pero no siempre fomentan el crecimiento personal que requiere un proceso terapéutico.

En contraste, un proceso terapéutico profesional va mucho más allá. Implica fases de evaluación, análisis funcional de las conductas, identificación de variables contextuales, establecimiento de objetivos de cambio y entrenamiento en habilidades adaptativas, todo desde un enfoque individualizado, ético y contextualizado culturalmente.

Por ejemplo, una persona con ansiedad crónica podría recibir de un chatbot una lista de técnicas de relajación, pero un terapeuta podría explorar las causas subyacentes y trabajar en soluciones a largo plazo adaptadas a su historia personal.

A diferencia de un chatbot, un psicólogo no se limita a “aconsejar”, sino que guía al paciente a tomar decisiones propias mediante el trabajo profundo y progresivo. Por tanto, la IA no reemplaza la terapia. Puede acompañar, contener y orientar superficialmente, pero no diagnostica, no evalúa procesos complejos, ni sigue un plan estructurado con seguimiento profesional.


Además, las limitaciones tecnológicas de la IA también influyen. Muchos modelos poseen una memoria limitada o inexistente, lo cual obliga a repetir información constantemente y puede interrumpir la sensación de progreso. Esta experiencia puede ser frustrante para la persona, y también genera una confrontación con la realidad de que, aunque se trate de una interacción aparentemente cálida, sigue siendo una respuesta automatizada.


Otro aspecto crítico es la interacción humana real. Aunque en un principio los chatbots pueden parecer un alivio para la soledad, diversos estudios advierten que su uso excesivo podría generar el efecto contrario: reforzar el aislamiento. Un estudio del MIT (2025), que evaluó a 981 participantes, encontró un uso problemático de estas herramientas y un aumento en la dependencia emocional hacia los bots. Esto destacó, además, la urgencia de investigar cómo el diseño de los chatbots y el comportamiento de l@s usuari@s pueden equilibrarse para evitar que estas herramientas sustituyan los vínculos humanos.


Entre los hallazgos más relevantes del estudio liderado por Fang (2025), se observaron los siguientes patrones:

  1. Las mujeres tendían a reducir la interacción social real después del uso frecuente de chatbots, más que los hombres.

  2. Cuando la voz del chatbot era del género opuesto al de la persona, se incrementaba la sensación de soledad y la dependencia emocional.

  3. Las personas mayores mostraron un mayor nivel de dependencia hacia estas IA al término del estudio.


Actualmente, se están desarrollando herramientas de IA con enfoques más clínicos, como Therabot, Wysa y Woebot, diseñadas bajo principios de la Terapia Cognitivo-Conductual (TCC). Estas han mostrado resultados prometedores en la reducción de síntomas de ansiedad, trastornos de conducta alimentaria y depresión en pequeñas muestras poblacionales. Aun así, los expertos coinciden en que falta evidencia empírica suficiente y que es necesario establecer marcos regulatorios más sólidos, que aseguren prácticas responsables y respuestas ajustadas al bienestar de la persona, más allá de lo atractivo o placentero que resulte la interacción.


En definitiva, ¿son beneficiosas las IA o no?

Sí, pueden ser beneficiosas como recursos complementarios o de primera mano, especialmente cuando el acceso a un profesional de la salud mental está limitado. Pero no deben sustituir el acompañamiento profesional. No todos los conflictos pueden resolverse con consejos generales, y en algunos casos, la dependencia a estas herramientas puede incluso agravar los problemas emocionales.


La diferencia entre acompañamiento digital y tratamiento terapéutico no solo es profunda, sino necesaria de entender. La inteligencia artificial es una herramienta, no una solución definitiva.

La IA escucha sin juzgar, pero no evalúa ni transforma conductas



Referencias Bibliográficas

 
 
 

Comments


  • Facebook
  • Instagram
  • Icono social LinkedIn

©2020 por SaludMentalEC

bottom of page