Para algunas personas autistas, ChatGPT es un salvavidas


La flexibilidad del chatbot también viene con algunos problemas sin resolver. Puede producir respuestas sesgadas, impredecibles y, a menudo, inventadas, y se basa en parte en información personal eliminada sin permiso, lo que plantea problemas de privacidad.

Goldkind aconseja a las personas que se cambian a ChatGPT que se familiaricen con sus términos de servicio, comprendan los conceptos básicos de cómo funciona (y cómo la información compartida en el chat puede no permanecer privada) y sean conscientes de sus limitaciones, como su tendencia a tergiversar la información. Young dijo que consideraron activar las protecciones de privacidad de datos para ChatGPT, pero también creen que su perspectiva como padre soltero autista y emancipado podría ser información útil para un chatbot en general.

Para muchos otros, las personas con autismo pueden encontrar conocimiento y empoderamiento en una conversación con ChatGPT. Para algunos, los aspectos positivos superan a los negativos.

Maxfield Sparrow, un autista que facilita grupos de apoyo para personas autistas y transgénero, ha descubierto que ChatGPT es útil para desarrollar nuevos materiales. Muchas personas autistas luchan con los rompehielos tradicionales en sesiones grupales, dice Sparrow, porque los juegos sociales están diseñados en gran medida para personas neurotípicas. Así que consiguieron que el chatbot presentara ejemplos que funcionaran mejor para las personas con autismo. Después de un poco de ida y vuelta, el chatbot espetó: “Si estuvieras en el clima, ¿en qué tipo de clima estarías?”

Sparrow dice que esta es la apertura perfecta para el grupo: breve y conectada con el mundo natural, con el que Sparrow dice que un grupo neural puede conectarse. El chatbot también se ha convertido en una fuente de consuelo cuando Sparrow se enferma y para otros consejos, como cómo estructurar su rutina matutina para ser más productivo.

La terapia con chatbots es un concepto con décadas de antigüedad. El primer chatbot, ELIZA, era un bot de terapia. Llegó en la década de 1960 de un laboratorio de inteligencia artificial en el MIT y se inspiró en la terapia Rogeriana, en la que un consejero reproduce lo que dice un cliente, a menudo en forma de pregunta. El programa no usaba la inteligencia artificial tal como la conocemos hoy, pero a través de la repetición y la coincidencia de patrones, sus respuestas de texto daban a los usuarios la impresión de que estaban hablando con algo que entendían. Aunque fue creado con la intención de demostrar que las computadoras nunca podrían reemplazar a los humanos, ELIZA atrajo a algunos de sus “pacientes”, quienes entablaron intensas conversaciones intensas con el programa.

Recientemente, los chatbots con respuestas escritas impulsadas por inteligencia artificial, similares a Siri de Apple, se han vuelto ampliamente disponibles. Entre los más conocidos se encuentran los chatbots diseñados para desempeñar el papel de un terapeuta real. Woebot se basa en prácticas de terapia cognitiva conductual y ha visto un aumento en la demanda durante la pandemia, ya que más personas que nunca buscaron servicios de salud mental.

Pero debido a que estas aplicaciones tienen un alcance más limitado y ofrecen respuestas basadas en texto, la conversación más rica de ChatGPT puede parecer más efectiva para aquellos que intentan resolver problemas sociales complejos.

Margaret Mitchell, ética en jefe de Hugging Face, que desarrolla modelos de código abierto para inteligencia artificial, sugiere que las personas que enfrentan problemas más complejos o angustia emocional severa deben limitar el uso de chatbots. “Puede conducir a direcciones de discusión problemáticas o estimular el pensamiento negativo”, dice ella. “El hecho de que no tengamos un control completo sobre lo que estos sistemas pueden decir es un gran problema”.