¿LA IA PODRÍA SUPLIR LA TERAPIA

¿La IA podría suplir la terapia?

De acuerdo con sitios como NPR y BBC, cada vez más personas están usando a los chatbots de la Inteligencia Artificial como alternativas para la terapia psicológica, hablando con ChatGPT y otras opciones similares sobre sus problemas personales o de pareja, y buscando consejos para lidiar con las situaciones a las que se enfrentan.

De acuerdo con Psychology Today y la American Psychological Association, la IA no fue creada con fines psicológicos y de salud mental y, al menos por ahora, no es una buena alternativa o un reemplazo de la terapia y de los psicólogos humanos.

Hay varios riesgos importantes que aparecen cuando se usa la IA como un terapeuta y en busca de ayuda en

temas de salud mental.

Las respuestas de la IA demostraron un estigma hacia las personas con problemas de salud mental.

  • Las respuestas de la IA fueron frecuentemente inapropiadas y peligrosas.
  • Los modelos más grandes y nuevos no mejoraron la seguridad.
  • La IA tiene un menor porcentaje de respuestas apropiadas que los humanos.
  • No está diseñada para cuestionar o desafiar la manera de pensar de quienes interactúan con ella.
  • La disponibilidad las 24 horas puede empeorar los pensamientos obsesivos.
  • No está equipada para identificar o manejar riesgos importantes.

La IA no está preparada para responder adecuadamente a las personas cuando se tocan temas de salud mental, además de que puede proponer soluciones inapropiadas y alentar a las personas incluso cuando lo que están compartiendo es problemático o dañino para ellas. Cuando se habla con la IA, no se puede construir la confianza que se construye con un terapeuta, y tampoco está la empatía y la confidencialidad (que esto es muy importante) que se da con un terapeuta humano.

En el vínculo terapéutico queda plasmada la satisfacción conjunta por ver cómo el paciente va alcanzando las metas establecidas en las diferentes fases de la psicoterapia.

El vínculo terapéutico es el conjunto de patrones de comunicación y de expresión de emociones que se produce como un intercambio constante de información (verbal y no verbal) entre el terapeuta y el paciente, en un contexto de relación profesional.

  • El vínculo terapeuta – paciente facilita que el paciente se abra y sea honesto sobre sus vulnerabilidades.
  • Los resultados hacen que los pacientes tengan una fuente de motivación extra para seguir progresando y comprometiéndose con lo que propone el profesional y reduce el riesgo de interrumpir la terapia.
  • Los pacientes son capaces de ir aprendiendo acerca de ellos mismos al fijarse en lo que sienten y lo que piensan durante estas reuniones con el psicólogo.

La IA sí podría ser un complemento para la terapia tradicional, ayudando a hacer notas y resúmenes de las sesiones, y a identificar patrones de comportamiento.

Los chatbots de IA pueden validar a las personas, brindar explicaciones y estar siempre disponibles, ser agradables, obedientes y receptivos, pero son precisamente estas características las que les impiden ser seguros como terapeutas autónomos por ahora, pero no está preparada para responder adecuadamente a las personas cuando se tocan temas de salud mental, además de que puede proponer soluciones inapropiadas y alentar a las personas incluso cuando lo que están compartiendo es problemático o dañino para ellas.

Estudios recientes han mostrado que la interacción constante con una IA puede generar apego emocional.

Algunos usuarios han desarrollado una conexión tan fuerte con su chatbot que lo consideran su mejor amigo o incluso su pareja. En 2023, The Washington Post reportó casos de personas que se deprimieron cuando su chatbot cambió su personalidad tras una actualización. Esto plantea un problema serio: si confiamos más en un chatbot que en personas reales, ¿qué significa eso para nuestras relaciones humanas?

La IA puede ser utilizada para apoyar a los humanos en la toma de decisiones, pero también puede ser peligrosa si no se tiene en cuenta la ética. El único límite real para la inteligencia artificial es la ética humana.

Mientras que la IA puede imitar la inteligencia humana, aún no puede reemplazar la empatía y la creatividad humana. La empatía es una habilidad que las máquinas no pueden poseer; no pueden entender completamente las emociones humanas ni conectarse emocionalmente con las personas. La creatividad también es algo en lo que las máquinas aún no pueden superar a los humanos.

Intentemos formular una definición. Ser alma es comprender que compartimos ciertos deseos con nuestros semejantes; que nos conviene y que debemos trabajar colectivamente para satisfacerlos de maneras que promuevan el máximo desarrollo humano; que existe una fuente misteriosa e innombrable detrás de estos deseos; y que esta fuente, de alguna manera, nos impulsa colectivamente hacia la plenitud.

Dada la definición anterior del alma humana, es hora de replantear nuestra pregunta original de “¿Podría la IA tener alma?”, a “¿Podría la IA alguna vez tener alma como la nuestra?”

Los chatbots con IA son una herramienta increíble, pero deben usarse con cabeza. Pueden ayudar a reducir la ansiedad, servir como apoyo inicial y hacer que la psicología llegue a más gente.

Pero no pueden reemplazar a un terapeuta humano. Si se usan sin control, pueden generar dependencia, ofrecer respuestas erróneas en momentos críticos y plantear serios problemas de privacidad.