¿Qué pasa cuando el psicólogo es un algoritmo
¿Podría un programa conversacional de inteligencia artificial reemplazar a un psicoterapeuta humano?
Los algoritmos informáticos, conjuntos de instrucciones definidas, ordenadas y acotadas que permiten a un cerebro electrónico resolver un problema, realizar un cálculo o desarrollar una tarea siguiendo una secuencia de pasos definidos, están en el corazón de la inteligencia artificial (IA).
Los ´chatbots´, programas o aplicaciones informáticas que conversan con las personas y responden a sus preguntas y consultas mediante voz o texto, como si fueran seres humanos, son una de las utilidades más populares de la IA, y están ganando terreno en el ámbito del asesoramiento psicológico.
"El uso de la IA como herramienta psicoterapéutica se remonta a la década de 1960, cuando el programa ELIZA ofrecía respuestas predefinidas a los usuarios que describían sus estados emocionales", señala la psicóloga clínica Jill Newby, profesora de Psicología en la UNSW.
Programas conversacionales como psicólogos
"Cada conversación con un sistema de IA es una interacción única muy contextual y personalizado, capaz incluso de recordar conversaciones pasadas, lo que permite a los usuarios explorar desafíos personales, problemas de salud mental y asuntos prácticos con mayor profundidad", especifica.
Psicoterapia en persona versus asesoramiento en línea
La profesora Newby explica que la psicoterapia presencial puede ser prohibitivamente cara, difícil de seguir para quienes viven lejos del lugar donde se ofrece y poco práctica para el horario de algunas personas, y a veces obliga al paciente a esperar semanas o meses antes de poder ser atendido por un terapeuta.
Newby apoya el uso de recursos web para tratar la depresión, ha participado en un portal de terapia en línea, y está investigando distintas herramientas de IA para ver cómo pueden aplicarse en tratamientos personalizados de la depresión y cómo pueden aprovecharlas los psicólogos para mejorar su práctica.
El riesgo que la IA brinde un asesoramiento equivocado o incluso peligroso "se agrava porque estos sistemas pueden ser engañados para que brinden consejos sobre comportamientos poco éticos cuando se les pide que consideren hipotéticamente un determinado escenario, de acuerdo con la profesora de la UNSW.
La IA como herramienta de salud mental
A la hora de utilizar estos sistemas es importante recordar que la IA no es perfecta ni infalible; y no puede sustituir la evaluación ni el diagnóstico de un profesional de la salud mental, señala.
Newby recomienda tener en cuenta el uso que las herramientas de IA podrían hacer de nuestros datos antes de facilitarles cualquier información médica privada; y también aconseja mantener una dosis de escepticismo al interactuar con estos sistemas y no creernos todo lo que nos dicen.
"Si conversar con la IA te hace sentir mal, busca ayuda profesional", enfatiza esta psicóloga.
Por otra parte, la profesora Newby considera que la conexión y el acompañamiento que proporciona un ser humano no puede ser reemplazada por la IA.
Newby sostiene que la conexión humana es fundamental para muchas personas, y los profesionales de la salud mental con la formación adecuada pueden establecerla, generando empatía.
Con base en la evidencia disponible, Jill Newby recomienda la terapia presencial o un programa en línea con apoyo clínico, como la TCC en línea, como primer paso, dado que todavía hay poca evidencia sobre los beneficios de los ´chatbots de IA en el tratamiento del malestar psicológico o angustia, al ser un área emergente de investigación en materia de salud mental.
Si se experimenta angustia leve o moderada, tanto los ´chatbots´ de IA como la terapia presencial pueden ser útiles, pero si la angustia es grave, persiste durante semanas o meses, o se tiene pensamientos suicidas, esta psicóloga australiana recomienda de manera categórica asistir a una terapia presencial.
Por otra parte, "los ´chatbots´ de IA pueden ser una buena alternativa si no puede acceder a la terapia en persona (porque se está en una lista de espera o no se la puede pagar); como una herramienta para usarla junto con la terapia en persona o como forma de prepararse para una terapia presencial, añade.
Newby recomienda elegir ´chatbots´ de IA diseñados específicamente para la salud mental, que cuentan con las protecciones adecuadas para personas con angustia más grave o pensamientos y comportamientos suicidas, como Wysa y Woebot, en vez de sistemas como ChatGPT y similares, que no fueron diseñados para el tratamiento ni el apoyo psicológico.
"Si no está seguro sobre qué hacer, busque primero una evaluación y asesoramiento de su médico de atención primaria, dado que su angustia podría tener otras causas subyacentes que deberían evaluarse y tratarse", concluye Newby.
El saludable placer de no hacer nada
El saludable placer de no hacer nada
Salud física y mental: ¿cómo se relacionan?
Salud física y mental: ¿cómo se relacionan?
Salud mental y felicidad ...¿Cuál es el costo de ir a terapia?
Salud mental y felicidad ...¿Cuál es el costo de ir a terapia?
Fehaciente, fidedigno y fácil. Agencia de noticias multimedia en español.