¿Pedirías ayuda psicológica a un chatbot especializado?

Pueden dar apoyo puntual pero no sustituir a un psicólogo

ChatGPT
00:00
Carmen Labayen

¿Pedirías ayuda psicológica a un chatbot especializado?

Carmen Labayen

Publicado el - Actualizado

5 min lectura

¿Consultarías un problema psicológico o emocional a una máquina? ¿Qué cabe esperar si lo hacemos? Cada vez es más frecuente recurrir a estos sistemas diseñados para imitar el comportamiento humano y ofrecernos respuestas de forma inmediata. La evidencia científica apunta a que, aunque pueden brindarnos una ayuda puntual, no son una terapia de verdad ni pueden reemplazar la labor del psicólogo.

Yana, Wysa, Pi, Replika y Character.ai son psico bots especializados en dar apoyo emocional por medio de Inteligencia Artificial generativa. Un soporte también disponible en plataformas generales como ChatGPT. Los hay más serios y también más empáticos, incluso podemos elegir el estilo. Tienen otras ventajas como el acceso gratuito y las 24 horas del día, no exponernos a otras personas y obtener validación o apoyo de forma rápida.

La accesibilidad y el anonimato, las principales ventajas

“Nos ayudan a romper esa barrera o ese reparo que a veces tenemos de acudir a un especialista, así franqueamos la primera barrera”, explica en COPE Almudena Ruiz Iniesta, investigadora del grupo Data Driver Science (DDS) de la Universidad Internacional de La Rioja.

Por su parte, Idoia Salazar, presidenta y co-fundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), considera que estos psico bots pueden llegar también a poblaciones remotas y a quienes no pueden costearse sesiones con un psicólogo -que en España rondan los 80 euros por hora- además de ofrecer anonimato a los usuarios: “diversos estudios prueban que precisamente los que más usan estos chatbots son gente que por vergüenza o por falta de recursos no recurren a profesionales o a la psicoterapia presencial”.

ChatGPT dispone de un botón para “Dar consejos” que brinda respuestas escritas y también asistentes virtuales igualmente robóticos de voz que nos animan a plantear “cualquier cosa que se te pase por la cabeza” y, con voces masculinas o femeninas, siempre complacientes, que nos indican que están ahí para ayudarnos. Al hacer una consulta sobre cómo mejorar nuestro estado de ánimo, en COPE hemos podido comprobar cómo la propia máquina aconseja recurrir a un psicólogo de carne y hueso si persiste nuestro problema y no mejoramos con sus recomendaciones virtuales.

“Antes también utilizábamos los buscadores como Google para tratar de despejar todo tipo de dudas médicas y psicológicas. Obteníamos muchas páginas de contenidos y con ellas nos teníamos que apañar y buscar nuestra propia respuesta. Y ahora lo que obtenemos con el chatbot es directamente la respuesta elaborada y resumida. Debemos de ser conscientes de que esto no es una terapia de verdad. Nuestra IA ha aprendido unos patrones y una información con las que nos brinda unas respuestas preestablecidas de libro o de manual”, subraya Ruiz Iniesta.

Los psicobots también presentan enormes desafíos

Falta el contexto de la persona y la empatía no es real sino programada. Corremos el riesgo de engancharnos, nadie controla la respuesta que nos da el chatbot, los resultados pueden ser incompletos, erróneos o sesgados para darnos la razón y pueden retrasar que recurramos a un profesional, muy peligroso en personas vulnerables.

Entre los riesgos, los expertos consultados por COPE, citan además la seguridad y la privacidad de los datos que aportamos; que la introducción de los chatbots de salud mental justifique en el futuro la reducción de servicios psicológicos en los sistemas nacionales de salud o la falta de regulación con sistemas éticos que puedan subsanar las posibles complicaciones de estas sesiones virtuales.

También subrayan que la mayoría de las respuestas que obtenemos de la máquina se basan en la terapia cognitivo conductual (TCC) basada en la conversación de forma estructurada para que vayamos tomando conciencia de pensamientos imprecisos o negativos y visualizar situaciones con mayor claridad para dar una respuesta más eficaz porque según señala Ruiz Iniesta “tiene patrones fáciles de replicar pero no se adapta a todos los problemas de salud mental que van a requerir de otros tipos de terapia que solo un profesional va a poder manejar”.

¿Qué dice la evidencia científica de estos therapy bots?

Un estudio publicado en 2023 en Nature revisó los resultados de 15 investigaciones realizadas con bots de IA generativa y, pese a las dificultades de analizar una oferta heterogénea y en constante cambio, los autores concluyen que este tipo de herramientas mitigan el malestar psicológico puntual sin mejorar significativamente el bienestar de los usuarios. Alivian a corto plazo, pero no sientan bases sólidas para una mente más sana.

Otro reciente análisis publicado en ScienceDirect detectó un cierto efecto positivo en personas con síntomas depresivos y apenas imperceptible en personas con trastornos de ansiedad.

Es preciso llevar a cabo más investigación sobre estos psico bots y su potencial. Hoy por hoy no hay evidencias de que puedan reemplazar la labor del psicólogo y, como mucho, los estudios apuntan a la posibilidad de utilizar estos sistemas de forma complementaria a la terapia psicológica tradicional y únicamente en problemas de atención primaria.

Algunos se preguntan si resulta legítimo que emulen cualidades humanas ó si acabarán sustituyendo a los profesionales de carne y hueso. Concluyen que ante la empatía programada digitalmente corremos el riesgo de crear malentendidos con graves consecuencias en personas vulnerables que necesitan ayuda e insisten en el valor de la profesionalidad de la verdadera psicoterapia capaz de responder a situaciones complejas, con sus matices y su contexto.

El factor que más influye en el éxito de un tratamiento es precisamente, subrayan, la relación y el vínculo que se crea entre el paciente y el terapeuta que es quien sabe manejar los imprevistos en cada sesión además de interpretar el lenguaje no verbal y entender experiencias subjetivas o intuir el problema y con ello diseñar la mejor respuesta para cada paciente.

Estos sistemas sí pueden beneficiar, en cambio, a los psicólogos con tareas supervisadas para que puedan llegar a más pacientes, puede apoyar en tareas administrativas o de seguimiento liberando tiempo y energía para la atención de los pacientes.

“A los profesionales sí les puede ayudar incluso a encontrar opciones terapéuticas para sus pacientes ante un problema específico porque sus conocimientos les permiten afinar la pregunta o prompt en los sistemas de IA generativa. Al estar especializados para ellos es fácil detectar si la información obtenida es verdadera o falsa”, apunta Ruiz Iniesta.

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

11:00H | 10 MAR 2025 | BOLETÍN