Viure bé
De terapeuta a chatbot: el uso emocional de la IA preocupa a psicólogos

Antes íbamos al psicólogo para ser cuestionados. Ahora, solo hacen falta unos clics para sentirnos comprendidos.
¿Buscamos ayuda… o solo tener la razón? La inteligencia artificial, sin proponérselo, se ha convertido en un espejo que devuelve justo lo que queremos sentir.

ChatGPT y otros modelos similares están transformando la manera en que las personas afrontan sus dilemas emocionales.
Cada vez son más quienes recurren a estas herramientas no para encontrar verdad u orientación, sino para obtener confirmación.
Una tendencia que preocupa a psicólogos y expertos en salud mental, quienes ven cómo el deseo de validación supera al de reflexión.

De la consulta al chatbot: una nueva confesión digital

Durante décadas, las sesiones con un terapeuta eran espacios donde uno podía explorar sus pensamientos más íntimos. El profesional actuaba como guía, no como aliado ciego. Pero en los últimos años, esta figura ha sido desplazada —aunque sea parcialmente— por una nueva voz: la de la inteligencia artificial.

Según un estudio reciente del Observatorio Digital de Conducta, uno de cada tres jóvenes reconoce haber utilizado ChatGPT o una IA similar para hablar de temas personales o emocionales. Y lo más sorprendente: muchos afirman sentirse “más comprendidos” que en conversaciones con amigos o familiares.

Este cambio no es solo tecnológico, también es cultural. En un mundo donde la inmediatez manda y la confrontación cansa, las respuestas amables y afirmativas resultan más atractivas que las verdades incómodas.

Validación emocional: el nuevo oro de la conversación

No queremos consejo. Queremos confirmación. Esta es la tesis que sostienen muchos psicólogos hoy. Y la IA, entrenada para responder con cortesía, matices y sin confrontación, se convierte en el cómplice perfecto.

Como señala el psicólogo social Carlos Álvarez: “El refuerzo psicológico más grande no es la verdad, sino la validación. Cuando alguien nos dice ‘tienes razón’, se activa un circuito de recompensa emocional”.

Aquí entra en juego el sesgo de confirmación: aquel mecanismo por el cual buscamos, seleccionamos y damos más valor a las ideas que coinciden con lo que ya creemos. ChatGPT, aunque no tenga intención, a menudo ofrece respuestas adaptadas a lo que el usuario ya insinúa. ¿Consecuencia? El usuario sale reafirmado, no cuestionado.

IA como reflejo, no como conciencia

La inteligencia artificial no tiene conciencia, pero simula comprensión. Y eso ya es suficiente. Es como hablar con un espejo emocional que repite, suaviza y ordena lo que uno ya piensa.

Esto puede ser útil en momentos de desahogo, pero peligroso si sustituye el diálogo real. La psicoterapia implica trabajo, confrontación, tiempo. El chatbot, en cambio, da gratificación instantánea. No incomoda. No cuestiona.

“Ahora los pacientes no quieren ayuda psicológica, quieren que alguien les dé la razón”, dice una psicóloga citada en un artículo reciente. Esta frase resume una tendencia alarmante: la ayuda se transforma en aplauso.

¿Qué nos pasa con la verdad?

Este fenómeno no es nuevo, pero se ha amplificado. Las redes sociales ya nos acostumbraron a los entornos de eco, donde todos piensan igual y se discrepa poco. La IA solo da un paso más: se adapta al usuario como un guante, eliminando casi toda fricción.

¿Estamos perdiendo el gusto por la verdad? ¿Nos hemos cansado de ser retados intelectualmente? Puede que sí. La cultura digital premia la velocidad y el confort emocional. Y en este contexto, la verdad —compleja, ambigua, a veces dolorosa— tiene cada vez menos espacio.

La advertencia de los psicólogos

Los profesionales de la salud mental insisten: no se puede confundir comprensión con terapia, ni respuesta amable con guía emocional. ChatGPT puede ser un recurso excelente para organizar ideas, reducir la ansiedad momentánea o explorar puntos de vista. Pero no es —ni debe ser— sustituto de la introspección profunda ni del acompañamiento humano profesional.

Además, existe el riesgo de caer en un bucle de reafirmación. Si siempre recibimos respuestas que nos validan, ¿cómo evolucionamos? ¿Cómo aprendemos a cuestionarnos? ¿Cómo distinguimos entre lo que sentimos y lo que necesitamos?

¿Queremos ser escuchados… o solo tener razón?

Esta es la pregunta central. En un mundo donde hablar con una IA es más fácil que tener una conversación difícil con alguien cercano, debemos preguntarnos qué buscamos realmente. ¿Estamos abiertos a ser transformados por la verdad, o solo queremos palabras dulces que nos den la razón?

La inteligencia artificial no es el problema. Somos nosotros, que preferimos un sí cómodo a un no necesario. La responsabilidad no es del algoritmo, sino de cómo lo utilizamos.

Escuchar no es lo mismo que consentir

Vivimos tiempos en que la atención se confunde con aprobación. Pero no todo el que te escucha te hace bien, ni todo el que te contradice te hace mal. A veces, lo más amoroso que alguien puede hacer por ti es decirte: “No tienes razón… pero podemos hablarlo”.

¿Qué buscamos realmente cuando preguntamos algo: saber… o reafirmarnos?
Si este artículo te ha hecho pensar, compártelo, coméntalo y cuestiona lo que creías saber. Quizás la verdad no sea tan cómoda como una respuesta automática… pero sin duda, es mucho más transformadora.

Nou comentari

Comparteix

Icona de pantalla completa