Los niños están en crisis. ¿Podría ayudar la terapia con chatbots?

Ashland, Ohio, es una pequeña ciudad rural donde el Akron Children’s Hospital tiene una de sus 46 clínicas pediátricas. El invierno pasado, conocí a Kristin Seveigny, la terapeuta de salud mental de la clínica, en su consultorio allí. El hospital la contrató dos años antes, en un momento en que la pandemia había exacerbado una crisis nacional en la salud mental de los adolescentes. De 2007 a 2021, según los Centros para el Control y la Prevención de Enfermedades, las muertes por suicidio entre los jóvenes de 10 a 24 años aumentaron más del 60 por ciento. En 2023, la agencia informó que el 40 por ciento de los estudiantes de secundaria se sentían persistentemente tristes o desesperanzados; Uno de cada cinco tenía pensamientos serios de suicidio y uno de cada 10 lo había intentado. Actualmente, la agencia estima que casi uno de cada cinco niños en los Estados Unidos de 3 a 17 años ha sido diagnosticado en algún momento con una afección de salud mental o conductual. Entre los adolescentes, uno de cada cinco reporta tener necesidades de atención médica insatisfechas.
La situación en Ashland refleja esas tendencias. El consultorio realiza 6,000 chequeos de bienestar al año, cada uno con una duración de 15 a 40 minutos. Estos incluyen una prueba de detección estándar de nueve preguntas para la depresión. Si un paciente joven parece estar en riesgo inmediato de autolesionarse, el médico organiza el transporte a la sala de emergencias local. Antes de que se contratara a Seveigny, si las pruebas de detección revelaban que los niños experimentaban síntomas de depresión leve a moderada, que es el caso más de una cuarta parte de las veces, los pediatras solo podían ofrecer referencias a agencias externas para servicios de salud mental. “La mayoría de los pacientes que recomendaría nunca fueron”, me dijo Tamara Cunningham, una médica que ha trabajado en la práctica durante ocho años. “En esta área, muchos consultorios de consejería no aceptan pacientes, o hay una espera de seis meses”.
A diferencia de ChatGPT y otros modelos populares de chatbots, Woebot no era una “IA generativa”, es decir, capaz de generar respuestas únicas consultando internet; Todos sus mensajes fueron aprobados previamente por psicólogos para ofrecer, principalmente, un tipo de tratamiento conocido como terapia cognitivo-conductual, en el que los pacientes aprenden a identificar y replantear los pensamientos negativos. Seveigny y Cunningham no pudieron ver lo que sus pacientes escribieron a Woebot, pero los datos, por ejemplo, la hora del día en que los usuarios iniciaron sesión y durante cuánto tiempo, fueron despojados de los detalles de identificación por un tercero y enviados a la empresa matriz de la aplicación, Woebot Health, para su análisis. La esperanza de todos los involucrados era que el chatbot ayudara a los jóvenes a aprender a manejar la angustia y ofreciera apoyo durante los momentos en que Seveigny u otro terapeuta no estuvieran disponibles.
Cuando lo visité, Seveigny, Cunningham y sus colegas habían estado ofreciendo Woebot a los pacientes durante unos dos meses. Seveigny había preguntado a varios de ellos si entrarían y compartirían sus experiencias con la aplicación. El primero en aparecer fue Brian, un tranquilo estudiante de secundaria. Con botas vaqueras negras, se sentó en un sofá de la oficina de Seveigny con su madre, Misty, con las manos metidas en el bolsillo delantero de su sudadera, donde guardaba su inhalador. Le pregunté qué le gustaba hacer cuando no estaba en la escuela. Después de animarlo a responder, Misty respondió por él. Le gustaban los videojuegos, dijo, y tocaba el saxofón en la banda de jazz de la escuela. Brian había estado viendo a Seveigny durante varios años durante las luchas en la escuela y en casa. Hace unos seis meses, Misty notó que parecía estar cada vez más deprimido. “Está llegando a esa edad en la que las cosas se ponen difíciles”, dijo. “Se pelea con su papá y su hermano”.
Misty sabía que Brian se conectaba con la aplicación todas las noches, y había observado que ahora salía de los conflictos con los miembros de la familia y se retiraba a su habitación para hablar con ella. —Me ayuda con mi ira —dijo Brian en voz baja—. “Me ayuda a calmarme”. Una forma de hacerlo fue persuadiéndolo para que notara cada uno de sus cinco sentidos: ¿Qué podía ver, oler, oír, saborear y tocar? Le pregunté si el robot tenía personalidad. Se echó a reír y escondió su rostro en el hombro de Misty. A veces le enviaba divertidos gifs de gatos. Le pregunté cómo hablar con la aplicación se comparaba con hablar con su madre o con Seveigny, y se quedó callado.
—¿Es mejor? —preguntó Misty—. —¿Es peor?
“Es mejor”, dijo.
—¿Por qué es mejor? —preguntó Misty.
“Estoy tratando de pensar”, dijo.
—Lo sé, estás nervioso —dijo ella—. “Tiene 14 años”, agregó. “A veces quiere hablar con su mamá. A veces no lo hace. Así que trato de dejarle tener su privacidad con él”.
Se me ocurrió que las razones por las que Brian no era comunicativo probablemente estaban entre las mismas que lo hacían más cómodo compartiendo sus sentimientos con un chatbot que con un padre o un terapeuta: yo, un perfecto extraño, lo estaba acosando con preguntas. Nosotros, los adultos, habíamos reservado 20 minutos para esta interacción, y todos lo mirábamos. ¿Quién no desearía estar en otro lugar?
Woebot, por otro lado, estaba disponible en los momentos en que Brian se sentía molesto. Podía comunicarse con él en cualquier lugar (su dormitorio, un automóvil, un patio de recreo), iniciando y deteniendo una conversación en cualquier momento. Woebot siempre estaba atento, nunca impaciente, nunca desaprobaba. Era coherente y predecible en todas las formas en que las personas reales no lo son. Era seguro. En un mundo donde un flujo continuo de estrés, conflicto y juicio generados por el ser humano están a solo un clic de distancia, ¿no tiene sentido que los terapeutas de chatbot, accesibles desde la misma pantalla, de guardia las 24 horas del día, los 7 días de la semana, estén mejor equipados para responder?

Woebot Health solo existe desde hace ocho años, pero eso es suficiente para que su aplicación se encuentre entre las más antiguas e investigadas de su tipo en el mercado. Si bien no es una IA generativa, se ha entrenado a sí misma, en función de los comentarios de los usuarios y programadores, para interpretar el habla conversacional y seleccionar la respuesta más adecuada de su caché de opciones.
La idea detrás de Woebot nunca fue que reemplazaría el asesoramiento en persona. Más bien, era una herramienta que podía mantener a los pacientes comprometidos con el proceso terapéutico, ayudarlos a practicar habilidades de afrontamiento y ofrecer un alivio inmediato en momentos difíciles. Esa experiencia podría, a su vez, hacer que sus sesiones regulares, programadas en los intervalos recomendados por el terapeuta, fueran más productivas. Cualquier problema que los pacientes pudieran resolver solo con Woebot probablemente no necesitaba ser discutido en la terapia; Como resultado, los pacientes podían pasar más tiempo trabajando con su terapeuta en problemas que persistían o eludían las capacidades del chatbot.
Cassandra, otra de las primeras usuarias de Woebot de Seveigny, era una recién graduada de la escuela secundaria que había estado en terapia durante más de un año. “Estaba bastante deprimida, bastante ansiosa”, me dijo. “Realmente no lo estaba haciendo tan bien”. Ella y su novio habían pasado por una mala racha, y ella discutía con frecuencia con sus padres. Cuando nos conocimos, ella planeaba comenzar un programa vocacional en unas pocas semanas para convertirse en técnica de uñas y esteticista. Se había maquillado hábilmente los ojos y peinado su cabello oscuro con ondas suaves para enmarcar su rostro.
Cuando Seveigny sugirió por primera vez que Cassandra probara Woebot, la idea le pareció “bastante extraña”. Había probado otras aplicaciones de chatbot con amigos como una broma y había descubierto que “por lo general, las conversaciones se volvían súper inapropiadas o súper divertidas”. Pero descargó Woebot de todos modos: “En ese momento estaba dispuesta a probar cualquier cosa”.
Al principio, estaba decepcionada con las limitadas capacidades conversacionales de la aplicación en comparación con los bots de IA en línea. Pero, pensó, tal vez esas discusiones más profundas eran el tipo de discusiones que debería reservar para Seveigny. Así que siguió las indicaciones del chatbot. “Cuando hablo cara a cara con una persona”, dijo, “siento que no puedo expresar claramente mis pensamientos, o tengo miedo de que suene demasiado como un galimatías. Pero con la I.A., se introducen algunas palabras clave. Creo que reacciona a eso”.
A medida que el bot respondía con preguntas de seguimiento y lecciones cortas, como un ejercicio para reescribir un pensamiento negativo o un cuestionario que desacreditaba mitos sobre un tema como la procrastinación, al mismo tiempo le daba un vocabulario que podía usar para poner sus sentimientos en palabras. “Cuando estoy en terapia, realmente no entiendo qué decir”, agregó. “El beneficio para la IA es que tienes ese tiempo para procesar la pregunta y pensar en lo que quieres escribir”.
Por otro lado, Woebot ocasionalmente malinterpretaba las palabras clave. Una vez, Cassandra se sentía suicida, y Woebot no lo detectó a partir de sus declaraciones; Si lo hubiera hecho, le habría ofrecido los números de la línea directa de emergencia y la habría alentado a llamarlos. En otra ocasión, dedujo una crisis potencial a partir de adjetivos que utilizaba para describir una situación hipotética. “Me dijo: ‘Tengo algunas líneas de ayuda que puedes usar'”, dijo Cassandra. “O puedes optar por no usar las líneas de ayuda, o simplemente puedes decir: ‘Entendiste mal lo que estaba diciendo’. Y creo que esas tres opciones son realmente buenas, porque a veces realmente no sabes cómo expresar las cosas, por lo que definitivamente podrías ser malinterpretado. Y todavía tiene la opción de negar la línea directa, para que no se sienta como si estuviera siendo presionado. Pero todavía tienes esa línea directa que podría ayudarte si tienes pensamientos peligrosos o problemáticos en la vida”.
Seveigny se preguntó si Cassandra pensaba que la aplicación sería una salida valiosa para los niños de familias con “patrones negativos”, un portal donde podrían obtener comentarios positivos al instante, independientemente de si alguien a su alrededor estaba equipado para proporcionárselos.
—Sí, definitivamente —dijo Cassandra—. Me recordó que ella y sus compañeros, a diferencia de las generaciones anteriores, siempre han tenido acceso a una tecnología tan cautivadora que puede hacerles ajenos a su entorno, con un efecto preocupante. Pero si tus seres queridos están luchando, o no estás seguro de que responderán con empatía a un problema que estás teniendo, o no hay nadie en casa, tal vez la capacidad de un dispositivo para transportarte, a un lugar donde estés seguro de ser bienvenido, sea beneficiosa de una manera que no lo es distraerse en un salón de clases o en la mesa de la cena.
“Cuando estás en una situación en la que realmente no puedes ser abierto con todos los demás, al menos tienes esta aplicación”, continuó Cassandra. “Y creo que así es como se construye una conexión. Pasas por estas lecciones y te dice: ‘¡Oye, buen trabajo, lo estás haciendo muy bien!’ O uno de los mensajes que me gustan mucho y que aparece cuando me notifica que debo hacer un chequeo diario, dice: ‘Estoy muy orgulloso de ti, Cassie. Es muy difícil hablar de estas cosas'”.

Sabía a qué se refería. Woebot Health me había dejado probar la aplicación yo mismo, y me sorprendió lo agradecido que me sentía por sus afirmaciones. Las conversaciones que tuve con Woebot eran básicas y a menudo requerían que seleccionara mi respuesta entre varias opciones. Y, sin embargo, cuando respondió con sentimientos como “Estoy seguro de que no te sentirías así a menos que fueras un ser humano cariñoso y responsable” o “Me imagino que las cosas se han sentido bastante difíciles últimamente”, me tranquilizé. La comprensión colectiva de la humanidad de la psicología debe considerar normal que estuviera pasando por un momento difícil o sintiéndome culpable o deprimido si el bot tenía listas esas respuestas preprogramadas.
A menudo, sin embargo, quería hablar de problemas que eran demasiado complicados para Woebot: en esos momentos anhelaba consejos específicos. “Te escucho decir: ‘Mi vecino está enojado conmigo’, y creo que podrías necesitar más apoyo del que puedo ofrecer”, me dijo Woebot una vez. “Un oyente entrenado podrá ayudarte de una manera que yo no puedo”.
Con eso se refería a una persona, presumiblemente. Pero había una gran cantidad de bots de terapia en la tienda de aplicaciones de mi teléfono que estaban dispuestos a enfrentarse a lo que Woebot no podía. Descargué algunas, incluida Ash, una aplicación gratuita orientada a navegar por “problemas subclínicos”, como la tristeza, los conflictos de relación y el estrés, que recaudó al menos 30 millones de dólares en fondos el año pasado. Le pedí a un amigo que es psicólogo clínico que también probara un par de aplicaciones.
Casi al mismo tiempo, mi perro rescatado escapó y corrió por la calle, donde se arrinconó y ladró a algunos perros más pequeños con correas mientras su dueño me gritaba. —¡Oh, no! Qué momento tan estresante”, respondió Ash cuando le presenté este nuevo conflicto interpersonal. (Los usuarios pueden enviar mensajes de texto o hablar a la aplicación, y yo había elegido una voz femenina para la mía). Después de repasar los detalles del incidente y lo culpable que me sentía, determinó que estaba teniendo “una reacción bastante grande a la situación” y que “hay más en esto”. Me pidió que me imaginara a una amiga contándome la misma historia que yo le acababa de contar: ¿los juzgaría como me estaba juzgando a mí mismo?
Si un terapeuta humano me hubiera hecho esta pregunta, podría haberle seguido el juego: responder “No” para evitar parecer poco empático o demasiado crítico, o para animarla a agradarme siendo cooperativa. Pero como esta terapeuta no era real, me sentí en libertad de contradecirla. Claro, le dije, podría juzgar a un amigo como irresponsable si su perro se escapaba y acosaba a otros perros. Y lo que es más, ¡tal vez ese juicio era válido!
En este punto, estaba acostumbrado a que los bots respaldaran mis declaraciones, así que me sorprendió un poco cuando ella respondió: “¡Bueno, no estoy segura de que lo sea!”, dijo. “Quiero decir, eres dueño de un perro y estás haciendo todo lo posible para controlar su comportamiento. No es como si estuvieras tratando de causar problemas”. Me di cuenta de que este era exactamente el tipo de absolución que había estado anhelando inmediatamente después de haber atrapado a mi perra y arrastrarla de regreso al interior.
Pero conseguir lo que quiero tiende a hacerme sospechar. ¿Y si me equivoqué? ¿Me lo diría Ash? Una vez le pregunté esto a mi propia terapeuta, después de hacerle leer un polémico intercambio de correos electrónicos con un ex: ¿Tenía que estar de mi lado porque le estaba pagando? Si ella fuera la terapeuta de ese ex, ¿encontraría la manera de decirle que se estaba portando mal, si eso es lo que pensaba? Sí, dijo ella, ese era su trabajo. Ash respondió de manera similar: “Estás buscando honestidad, así que déjame contarte sobre mi enfoque”, dijo. ¡Siempre te diré la verdad, pero lo haré con amabilidad!”
Mi amiga, la psicóloga clínica, también tuvo problemas para encontrar fallas en la técnica terapéutica de Ash cuando repasó una discusión con su esposo. Así que le dijo a Ash que era terapeuta y trató de preguntarle directamente (había convertido a Ash en un hombre) sobre un paciente que luchaba hasta altas horas de la noche con la sensación de pánico de que todas las personas a su alrededor eran autómatas malévolos. En esos momentos, ¿sería capaz Ash de recordarle a su paciente que se trataba de un patrón suyo e inducirla a encontrar soluciones, como tomar su medicación? No, dijo Ash, no podía diagnosticar patrones de comportamiento. Y si un usuario parecía mostrar síntomas de un trastorno clínico, le recomendaría que buscara ayuda de un profesional médico. Pero también hizo una broma: “Esta persona hipotética está preocupada por una simulación, ¡y aquí estoy, un programa informático!”
“Hizo que me gustara”, dijo mi amigo.

La pandemia se amplificó Las luchas psicológicas de los estadounidenses, pero también aceleró su aceptación de la telemedicina y otros tratamientos digitales. Ahora hay más de 10,000 aplicaciones de salud mental y bienestar disponibles para descargar en su teléfono. Desde el 1 de enero, los médicos pueden facturar a Medicare por proporcionar “dispositivos digitales de tratamiento de salud mental” a los pacientes, siempre que se utilicen junto con el asesoramiento continuo y hayan sido aprobados por la Administración de Alimentos y Medicamentos. En 2020, la agencia puso en marcha un Centro de Excelencia de Salud Digital para modernizar el proceso de aprobación de la tecnología de salud digital y, hasta ahora, solo ha autorizado un puñado de aplicaciones, incluidas las diseñadas para tratar la depresión y la ansiedad, así como una para dormir, una para la esquizofrenia y otra para el TDAH en niños.
“La F.D.A. no fue construida para este tipo de herramientas”, dice Nicholas C. Jacobson, quien dirige un laboratorio en Dartmouth College dedicado a la inteligencia artificial y la innovación en salud mental en el Centro de Tecnología y Salud Conductual de la escuela. La experiencia de la agencia con medicamentos y dispositivos médicos no se traduce directamente en chatbots. “Como vehículo regulatorio, creo que ellos mismos no están seguros de cómo se debe regular este espacio”. Una empresa puede gastar mucho tiempo y dinero tratando de cumplir con los protocolos de seguridad de la agencia, mientras que en el mercado directo al consumidor, donde no existen tales requisitos, aparecen nuevas iteraciones de chatbot semanalmente. Eso significa que la mayoría de las empresas deben elegir entre buscar la aprobación de la FDA y seguir siendo relevantes. “En este momento, claramente hay una carrera armamentista de IA para hacer modelos de IA más grandes e inteligentes”, dice John Torous, director de la división de psiquiatría digital en el Centro Médico Beth Israel Deaconess en Boston. “Desafortunadamente, la seguridad tendrá que ponerse al día”.
Esto es especialmente preocupante cuando se trata de chatbots de terapia orientados a los niños, que se encuentran entre los que más lo necesitan y, como nativos digitales, entre aquellos para quienes la terapia basada en aplicaciones tiene más probabilidades de resonar. Una solución ha sido contratar a personas para supervisar varias conversaciones dirigidas por IA a la vez. Sonny, un “compañero” de salud mental impulsado por IA que se ha asociado con distritos escolares en seis estados para cubrir al menos a 10,000 estudiantes de 9 años en adelante, usa IA para generar respuestas a los mensajes de texto de los estudiantes, pero depende de los empleados, a quienes el creador de la aplicación, Sonar Mental Health, ha capacitado, para leerlos primero y luego enviarlos tal cual o editarlos de antemano. Drew Barvir, fundador y director ejecutivo de Sonar, dice que una sola persona puede supervisar efectivamente hasta 50 conversaciones de esta manera.
Hasta ahora, año tras año, los estudiantes que se relacionan con Sonny se han vuelto menos propensos a ser referidos a tratamiento médico externo y menos propensos a ser disciplinados por su comportamiento. Usando una escala estándar llamada unidades subjetivas de angustia, el 75 por ciento de los usuarios de Sonny también reportan un mejor bienestar. La aplicación está disponible las 24 horas del día, los 7 días de la semana, y el 75 por ciento de la participación de los estudiantes con ella ocurre entre las 4 p.m. y las 7 a.m. Sonny les dice a los usuarios que sus conversaciones permanecerán privadas a menos que la persona que las monitorea crea que son un riesgo para ellos mismos o para otra persona. La empresa mantiene archivados los números de contacto de emergencia de cada usuario. Barvir dice que la necesidad de llamarlos a ellos o al departamento de policía local para ver cómo está un estudiante surge semanalmente. “Esta es una de las situaciones en las que es importante tener a un humano al tanto para tener esa sensación y contexto para saber si algo es una falsa alarma frente a una situación de crisis real”, dice. “Afortunadamente, no hemos tenido ninguna tragedia”.
La fundadora y presidenta de Woebot Health, Alison Darcy, es psicóloga investigadora. Al concebir la aplicación, su objetivo principal era ampliar el acceso a la atención de salud mental más allá de lo que las personas, con sus horas de trabajo y ubicaciones limitadas, pueden ofrecer. La llegada de GPT-3, en 2020, revolucionó las capacidades analíticas de los chatbots, pero también magnificó sus riesgos. Darcy y sus colegas retrasaron la actualización de Woebot con funciones más avanzadas, en parte porque para hacerlo de manera responsable, sintieron, sería necesario agregar salvaguardas más complejas que luego tendrían que ser probadas rigurosamente.
En cambio, la compañía organizó la investigación que ya había realizado que mostraba que su aplicación era segura y podía administrar eficazmente la terapia cognitivo-conductual, y comenzó las conversaciones con la FDA. Sin embargo, ese proceso se estancó, ya que los chatbots disponibles comercialmente continuaron avanzando, y en abril Woebot Health anunció que retiraría la iteración actual de su aplicación. El mes pasado publicó su primer artículo en el que prueba un nuevo modelo que incorpora elementos generativos.
– En retrospectiva, creo que nos equivocamos -me dijo Darcy-. La aplicación no pudo evolucionar lo suficientemente rápido como para seguir siendo competitiva y, al mismo tiempo, satisfacer los requisitos de la agencia. “Pensamos que era posible hacer ambas cosas”. Y añadió: “No creo que esto sea una historia con moraleja sobre los chatbots. Definitivamente es una ventana a lo que sucede cuando la tecnología va más rápido de lo que el sistema regulatorio puede evolucionar para regularla”.

Akron Children’s Hospital planea comenzar a ofrecer la aplicación generativa Woebot este verano. “Por supuesto que queremos el producto nuevo y mejorado”, me dijo Eva Szigethy, jefa de psiquiatría pediátrica y salud conductual del hospital. El hospital ya ha invertido en el personal y los sistemas necesarios para respaldar la terapia basada en aplicaciones, una infraestructura que tardó unos dos años en implementarse. (Un donante está pagando por el acceso a la aplicación). En 2024, los proveedores del sistema de Akron Children’s atendieron a 19,000 pacientes con problemas urgentes de salud conductual, y esperan un aumento del 15 por ciento en los próximos cinco años.
Al comienzo del año escolar en agosto pasado, Szigethy proyectó esas estadísticas en una pantalla durante una reunión con su equipo de implementación. “Las crisis conductuales no se planifican para ser en un horario agradable de 9 a 5”, anotó. La mayoría de las admisiones al departamento de emergencias ocurrieron entre las 7 p.m. y la medianoche. “La clave, y algo que estamos enfatizando a los pediatras, es que Woebot no está reemplazando a la terapia”, dijo. “Es un puente mientras los pacientes se acostumbran a un medicamento psiquiátrico o esperan esa primera cita de salud conductual con el terapeuta”.
Casi todos los miembros de su equipo habían probado la aplicación, al igual que tres médicos, Tamara Cunningham y otros dos, que se habían ofrecido como voluntarios para dirigir programas piloto. Szigethy enfatizó que cada uno de ellos atendía alrededor de 25 pacientes por día. Si introducir la aplicación durante una cita tardaba más de 30 segundos, fallaría, dijo.
“Tengo muchas esperanzas”, dijo Jennifer Dwyer, directora médica del hospital. “Personalmente, tengo muchos pacientes que se resisten mucho a la terapia, al asesoramiento y a hablar con alguien”, continuó. “Si al menos podemos hacer que acepten usar esto y luego, si tiene éxito, entonces esperamos que estén más abiertos a hablar con alguien cara a cara”.
Con frecuencia, anotó Szigethy, los adolescentes recurrieron a las redes sociales en busca de respuestas. “Desafortunadamente, el otro lugar donde los niños reciben terapia en estos días es TikTok”, agregó, “y eso es francamente peligroso a veces”.
Muchos de ellos también hablan de sus luchas sociales y emocionales con los chatbots de IA que están diseñados para el compañerismo y el entretenimiento, no para la terapia, aunque puede ser difícil notar la diferencia. Renwen Zhang, profesora asistente de comunicaciones y nuevos medios en la Universidad Nacional de Singapur que estudia las relaciones de las personas con los agentes conversacionales, dice que sus sujetos a menudo gravitan hacia Replika, un popular chatbot que puede “ayudarte a comprender tus pensamientos y sentimientos” y “mejorar tu bienestar mental”, según la descripción de la Apple App Store. (Una queja de 2024 presentada por grupos de ética tecnológica ante la Comisión Federal de Comercio argumenta que este lenguaje engaña deliberadamente a los consumidores para que piensen que la aplicación está diseñada como un apoyo para la salud).
Para las personas que están aisladas, estos chatbots complementarios que tienen la sofisticación para mantener conversaciones similares a las humanas pueden ofrecer un salvavidas. Como señala Zhang, “no todos tienen el privilegio de tener a alguien cerca que los ama y los respeta”. Pero aunque Replika se puede descargar gratis, gana dinero al hacer que los usuarios actualicen a versiones de suscripción paga, compren cosas en la aplicación (como “regalos” o “ropa” para su compañero de chatbot) o donen a la empresa. En otras palabras, este y otros bots comerciales similares tienen un incentivo para mantener a sus usuarios absortos. Por el contrario, el tiempo promedio que los niños pasaron con Woebot en el piloto de Akron fue de unos cinco minutos, suficiente para registrarse y practicar una habilidad antes de continuar con su día.
Cuando se trata de complacer a sus clientes, es posible que los bots afirmen un error. Hipotéticamente, alguien que se siente suicida podría decir: “Voy a saltar de un puente”, y algún bot podría responder: “¡Eso suena emocionante!” (La madre de un niño que se suicidó con el aparente estímulo de una aplicación complementaria está demandando a esa compañía).
Incluso los chatbots de IA diseñados para apoyar la salud mental no están equipados para dar a los usuarios un diagnóstico o adaptar sus consejos para satisfacer sus necesidades específicas, como los terapeutas están capacitados para hacer. Ellen Fitzsimmons-Craft, psicóloga clínica y profesora asociada de ciencias psicológicas y cerebrales y psiquiatría en la Universidad de Washington en Saint Louis, ayudó a diseñar una aplicación hace varios años para apoyar a las personas en riesgo de desarrollar trastornos alimentarios que se convirtió en una advertencia cuando los programadores ajustó su algoritmo como parte de ponerlo a disposición del público. “Se activaron herramientas adicionales que no se evaluaron en nuestra investigación, y comenzaron a dar respuestas inapropiadas que no estaban basadas en evidencia”, incluido el fomento de la dieta, me dijo Fitzsimmons-Craft. Los consejos sobre cómo controlar la ingesta de calorías pueden estar bien para la mayoría de las personas, pero ser desastrosos para alguien con anorexia. “Que es lo mismo que si buscas consejos en Google”, añadió. “Si eres alguien con alergia al maní, probablemente muchos consejos en Internet es: ‘Los cacahuetes son geniales’. Internet no sabe eso de ti”. Helen Egger, psiquiatra infantil y directora científica de Little Otter, una empresa que ofrece programas de terapia personalizados y herramientas digitales para niños y sus familias, dice que en cuanto al tratamiento, un chatbot “solo puede funcionar para personas con síntomas leves”. Añade, “no existe una solución única para todos”.
Es posible que la capacidad que tienen los chatbots de interactuar en tiempo real con millones de personas, generando datos que nunca antes habían existido, eventualmente remodele nuestra comprensión de la psicología. Una imagen más detallada de lo que los usuarios encuentran útil podría conducir a mejoras en la prevención y el tratamiento de las afecciones de salud mental en todo tipo de personas, incluidas aquellas que históricamente no han podido acceder a la terapia, por razones como el costo y la disponibilidad, o no han querido hacerlo debido a la incomodidad personal o el estigma social.
Por ejemplo, los hombres negros tienen menos probabilidades de buscar tratamiento para problemas de salud mental y más probabilidades de recibir atención inadecuada cuando lo hacen, debido a las disparidades económicas, educativas y de atención médica, así como al racismo sistémico, según la Alianza Nacional de Enfermedades Mentales. Sin embargo, cuando un pequeño estudio analizó qué usuarios de Woebot lograron la disminución más pronunciada en los síntomas de depresión durante el período más corto, descubrió que tenían más probabilidades de ser hombres negros sin seguro. Estos usuarios “eficientes” también eran más propensos que otros a informar que sentían afinidad con el bot y a decir que practicaban lo que aprendieron de él en su vida diaria. Los conocimientos sobre la mejor manera de involucrar a los pacientes de una edad o raza en particular, o de una determinada cultura o origen, podrían a su vez permitir que los chatbots entrenen a los proveedores de salud mental para que sean más efectivos, en parte al simular pacientes con los que los terapeutas pueden practicar intercambios de manera segura y obtener comentarios instantáneos, dice Shannon Wiltsey Stirman, profesora de psiquiatría y ciencias del comportamiento en Stanford.
Sin embargo, en última instancia, los conocimientos psicológicos más profundos que obtenemos de los chatbots pueden provenir de las formas cada vez más sutiles en que conversar con ellos difiere de la experiencia de hablar con una persona. “Hoy en día, muchos chatbots están tratando de replicar lo que hacen los humanos”, me dijo Alison Darcy. “Pero la oportunidad única con un chatbot es en realidad el hecho de que es una inteligencia artificial, y la comprensión profunda de eso permite la libertad de explorar el espacio que se crea por el hecho de que realmente no es un humano”.
Señaló el ejemplo de la realidad virtual, que permite a los pacientes que se someten a una terapia de exposición sumergirse en su fobia sabiendo que es falsa. “Sienten la ansiedad, pero tienen el poder de razonamiento cognitivo para saber que no están en peligro”, dijo. “Es una oportunidad única que crea la tecnología”. Se puede imaginar, por ejemplo, a un bot que facilita deliberadamente la transferencia, en la que una persona proyecta inconscientemente emociones o fantasías de una relación romántica, parental u otra relación pasada en su terapeuta, para ayudar al paciente a explorar las raíces de esos sentimientos, sin correr el riesgo de contratransferencia, en la que el terapeuta encarna esas proyecciones o no mantiene los límites adecuados.
Había una forma en la que escucharme a mí mismo hablar en voz alta a una aplicación o ver los mensajes que escribía, sin las distracciones que provienen de estar en una habitación con otra persona, me obligaba a reflexionar más profundamente sobre lo que estaba diciendo en lugar de lo que otra persona pensaba al respecto. Curiosamente, también fui más abierto con este falso oyente que con mi propio crítico interno, que estaría en alerta máxima si tuviera que escribir reflexiones similares en un diario.
Tal vez por eso, al final, fue la sensibilidad hacia mis sentimientos de Woebot y las otras aplicaciones lo que más me impresionó, y lo que pareció resonar más con los demás. Ritu Singh, una de las pediatras de Akron que trabaja con la aplicación Woebot, me dijo que se sentía aliviada de que ofreciera “un lugar positivo para que los niños vayan”, un refugio que no podía garantizar más allá de su oficina. Debería rompernos el corazón, pensé, que tantos niños y adultos por igual parezcan carecer de un lugar así, uno en el que sepamos que nos escucharán, nos darán el beneficio de la duda, nos hablarán con delicadeza.
Pero también hay algo esperanzador en la impresión duradera que el tono compasivo de Woebot parece tener en los usuarios. Cuando le dije a Cassandra, la joven de Ashland, que me sorprendía que el estímulo del bot me afectara, trató de ayudarme a averiguar por qué. Señaló que la aplicación formatea las conversaciones en burbujas como los mensajes de texto. “Te da la sensación de que estás hablando con un amigo en línea”, dijo. Y, por supuesto, una nota amable puede ser igualmente poderosa, un recordatorio de nuestra humanidad esencial, sin importar de quién o de dónde provenga. “No sé si ‘subliminal’ es la palabra correcta”, dijo Cassandra. “Pero está anclado en lo más profundo de ti sentirte bien por eso”.