¿Es una buena idea que todo el mundo use chatbots IA?

Cada vez más personas usan chatbots de inteligencia artificial para problemas de salud mental

Chatbots and facial recognition technology are increasingly being used to treat and diagnose mental health conditions, but therapists caution that the technology might do more harm than good.

Decenas de nuevas aplicaciones de IA ofrecen servicios de chatbot para ayudar a los pacientes a acceder a asesoramiento, pero no está claro en qué medida pueden ayudar o perjudicar.

Fotografía de Fiordaliso, Getty Images
Por Shubham Agarwal
Publicado 16 jul 2024, 11:28 CEST

En 2022, Estelle Smith, investigadora en informática, se enfrentaba con frecuencia a pensamientos intrusivos. Sentía que su terapeuta no era el adecuado y no podía ayudarla. Así que recurrió a un chatbot [un programa informático que simula una conversación] de salud mental llamado Woebot.

Woebot se negó a atender los impulsos suicidas directos de Smith y le pidió que buscara ayuda profesional. Sin embargo, cuando le envió un mensaje con un pensamiento real con el que a menudo batalla como ávida escaladora (escalar y saltar desde un acantilado), la animó a hacerlo y le dijo que era "maravilloso" que cuidara de su salud mental y física.

"Me pregunto qué habría pasado", dijo Smith a National Geographic; "si hubiera estado de pie en un acantilado en ese preciso momento cuando recibí la respuesta".

Los chatbots de salud mental distan mucho de ser un fenómeno nuevo. Hace más de medio siglo, un informático del MIT construyó un tosco programa informático llamado ELIZA que podía responder como un psicoterapeuta rogeriano. Desde entonces, los esfuerzos por desarrollar alternativas terapéuticas digitales no han hecho más que acelerarse, y con razón. La Organización Mundial de la Salud (OMS) calcula que hay una media mundial de 13 trabajadores de salud mental por cada 100 000 habitantes. La pandemia de COVID-19 desencadenó una crisis que provocó decenas de millones de casos adicionales de depresión y ansiedad.

Sólo en Estados Unidos, más de la mitad de los adultos que padecen una enfermedad mental no reciben tratamiento. La mayoría de ellos citan el coste y el estigma como sus principales obstáculos. ¿Podrían las soluciones virtuales, asequibles y disponibles 24 horas al día, 7 días a la semana, ayudar a superarlos?

(Relacionado: ¿Puede la inteligencia artificial superar la intuición de un médico?)

Los chatbots sustituyen a la terapia conversacional

La accesibilidad y escalabilidad de las plataformas digitales pueden reducir significativamente las barreras a la atención de la salud mental y ponerla a disposición de una población más amplia, afirma Nicholas Jacobson, que investiga el uso de la tecnología para mejorar la evaluación y el tratamiento de la ansiedad y la depresión en el Dartmouth College.

Arrastradas por la ola de inteligencia artificial (IA) Generativa, las empresas tecnológicas no han tardado en sacar provecho. Decenas de nuevas aplicaciones, como "Sarah", la "trabajadora sanitaria digital" de la OMS, ofrecen asesoramiento automatizado, en el que las personas pueden participar en sesiones de terapia cognitivo-conductual (un tratamiento psicoterapéutico que ha demostrado ayudar a los usuarios a identificar y cambiar patrones de pensamiento negativos) con un chatbot de IA.

La llegada de la IA, añade Jacobson, permitirá realizar intervenciones adaptativas y que los profesionales sanitarios realicen un seguimiento continuo de los pacientes, prevean cuándo alguien puede necesitar ayuda y ofrezcan tratamientos para aliviar los síntomas.

Tampoco es anecdótico: una revisión sistemática de chatbots de salud mental descubrió que los chatbots de IA podrían reducir drásticamente los síntomas de depresión y angustia, al menos a corto plazo. Otro estudio utilizó IA para analizar más de 20 millones de conversaciones de texto de sesiones reales de asesoramiento y predijo con éxito la satisfacción del paciente y los resultados clínicos. Del mismo modo, otros estudios han sido capaces de detectar signos precoces de trastorno depresivo mayor a partir de expresiones faciales inesperadas captadas durante desbloqueos telefónicos rutinarios y patrones de tecleo de las personas.

Más recientemente, investigadores de la Universidad Northwestern (en Estados Unidos) idearon una forma de identificar comportamientos y pensamientos suicidas sin necesidad de registros psiquiátricos ni medidas neuronales. Su modelo de inteligencia artificial estimó la probabilidad de autolesión en 92 de cada 100 casos a partir de datos de respuestas sencillas a un cuestionario y señales de comportamiento, como la clasificación de una secuencia aleatoria de imágenes en una escala de siete puntos de agrado a desagrado de 4019 participantes.

Dos de los autores del estudio, Aggelos Katsaggelos y Shamal Lalvani, esperan que, una vez que el modelo supere los ensayos clínicos, los especialistas lo utilicen como apoyo, por ejemplo para programar citas de pacientes en función de la urgencia percibida, y que, con el tiempo, se extienda al público en entornos domiciliarios.

Pero, como quedó patente en la experiencia de Smith, los expertos piden cautela a la hora de tratar las soluciones tecnológicas como una panacea, ya que carecen de la habilidad, la formación y la experiencia de los terapeutas humanos, especialmente la IA Generativa, que puede ser impredecible, inventar información y regurgitar sesgos.

(Relacionado: La IA, clave para resolver los problemas de salud femenina más olvidados)

Dónde se queda corta la inteligencia artificial

Cuando Richard Lewis, un consejero y psicoterapeuta de Bristol (Reino Unido), probó Woebot (el popular chatbot de salud mental basado en scripts al que sólo se puede acceder a través de un proveedor de atención sanitaria asociado) para ayudar en un tema que también estaba explorando con su terapeuta, el bot no captó los matices del asunto, le sugirió que "se ciñera a los hechos", eliminando todo el contenido emocional de sus respuestas, y le aconsejó replantear sus pensamientos negativos como positivos.

"Como terapeuta", dijo Lewis, corregir o borrar emociones es "lo último que querría que sintiera un cliente y lo último que le sugeriría".

"Nuestro trabajo consiste en formar una relación que pueda albergar emociones y sentimientos difíciles para nuestros clientes, con el fin de que les resulte más fácil explorarlos, integrarlos o encontrarles un significado y, en última instancia, conocerse mejor a sí mismos", añadió Lewis.

Tuve una experiencia similar con Earkick, un chatbot gratuito de IA Generativa que afirma "mejorar tu salud mental en tiempo real" y tiene "decenas de miles" de usuarios activos. Cuando le dije que me sentía abrumado por los plazos, no tardó en sugerirme soluciones, como pasatiempos.

Karin Stephan, cofundadora y Directora de Operaciones de Earkick, afirma que la aplicación no pretende competir con los humanos, sino servir a las personas de forma que estén más dispuestas a aceptar ayuda.

(Relacionado: Un método basado en inteligencia artificial detecta el cáncer del futuro)

Cómo pueden colaborar los robots y las personas

La mayoría de los terapeutas están de acuerdo en que las aplicaciones de IA pueden ser un primer paso ideal en el camino de la salud mental de una persona. El problema radica cuando se tratan como la única solución. Mientras que personas como Smith y Lewis contaban con sistemas de apoyo humano, las consecuencias pueden ser nefastas cuando alguien depende exclusivamente de un chatbot de IA. El año pasado, un belga se suicidó después de que un chatbot le animara a hacerlo. Del mismo modo, la Asociación Nacional de Trastornos Alimentarios (NEDA) de Estados Unidos suspendió un chatbot de trastornos alimentarios, Tessa, porque daba consejos perjudiciales sobre dietas.

Ellen Fitzsimmons-Craft, psicóloga y profesora que colaboró en el desarrollo de Tessa, está de acuerdo en que las herramientas de IA pueden hacer que la idea de la atención a la salud mental sea menos aterradora, pero añade que deben ser seguras, estar sujetas a normas estrictas y estar reguladas. Al igual que ChatGPT, no deberían entrenarse en todo Internet, donde abundan los malos consejos. Algunos estudios han descubierto que los chatbots de inteligencia artificial no sólo regurgitan tropos médicos racistas, sino que tampoco funcionan cuando se aplican, por ejemplo, a los negros estadounidenses.

Según Rob Morris, cofundador de Koko Cares, que ofrece recursos gratuitos de salud mental y apoyo entre iguales, hasta que las empresas tecnológicas no superen estas preocupaciones, los mejores casos de uso de la IA a corto plazo serán para fines administrativos, como seguros y facturación, lo que en última instancia permitirá a los terapeutas dedicar más tiempo a sus clientes.

Koko se enfrentó a la indignación pública cuando añadió la posibilidad de coescribir mensajes con ChatGPT y tuvo que dar marcha atrás. Cuando se les ofreció la opción de incluir inteligencia artificial, la mayoría de sus usuarios prefirieron una experiencia estrictamente humana y optaron por no participar. En los últimos seis meses, más de dos millones de personas han utilizado Koko.

"Las personas en apuros no son problemas a solucionar", afirma Lewis; "son personas complejas a las que hay que ver, escuchar y atender. Así de sencillo".

Este artículo se publicó originalmente en inglés en nationalgeographic.com.

más popular

    ver más

    más popular

      ver más
      loading

      Descubre Nat Geo

      • Animales
      • Medio ambiente
      • Historia
      • Ciencia
      • Viajes y aventuras
      • Fotografía
      • Espacio

      Sobre nosotros

      Suscripción

      • Revista NatGeo
      • Revista NatGeo Kids
      • Disney+

      Síguenos

      Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2024 National Geographic Partners, LLC. All rights reserved