Hay numerosos informes recientes de personas que se comprometen demasiado con la IA, a veces en detrimento de su salud mental.
Esas preocupaciones llegaron a la corriente principal la semana pasada cuando una cuenta propiedad de Geoff Lewis, socio gerente de la firma de capital de riesgo Bedrock y un inversor temprano en OpenAi, Publicado un video inquietante En X. El metraje, aparentemente del propio Lewis, describe un sistema oscuro no gubernamental, que el orador dice que se desarrolló originalmente para atacarlo, pero luego se expandió para apuntar a otros 7,000.
«Como uno de los primeros patrocinadores de @Openai a través de @bedrock, he usado GPT como una herramienta en busca de mi valor central: la verdad. Durante los años, mapeé el sistema no gubernamental. Durante meses, GPT reconocí y sellé independientemente el patrón», dijo en un críptico correo. «Ahora vive en la raíz del modelo».
La publicación provocó preocupaciones en línea de que AI había contribuido a las creencias de Lewis. El personal de El registro no son profesionales de la salud mental y no pudieron comentar si las publicaciones de alguien indican algo más que una creencia en las teorías de conspiración, pero otros hicieron.
Algunos espectadores están convencidos de que hay un problema en ciernes. «He catalogado más de 30 casos de psicosis después del uso de IA», dijo Etienne Brisson el regal. Después de que un ser querido experimentó un episodio psicótico después de usar AI, Brisson comenzó a ayudar a dirigir un grupo de apoyo privado llamado The Spiral, que ayuda a las personas a lidiar con la psicosis de IA. Se involucró a. El también ha establecido El proyecto de la línea humanaque aboga por proteger el bienestar emocional y documenta historias de psicosis de IA.
Grandes problemas de pequeñas conversaciones
Estas relaciones obsesivas a veces comienzan con consultas mundanas. En un caso documentado por el futurismoun hombre comenzó a hablar con Chatgpt pidiéndole ayuda con un proyecto de permacultura y construcción. Según los informes, eso se transformó rápidamente en una discusión filosófica de amplio alcance, lo que lo llevó a desarrollar un complejo de Mesías, afirmando haber «roto» las matemáticas y la física, y propuestos a salvar al mundo. Perdió su trabajo, fue atrapado intentando suicidio y comprometido con la atención psiquiátrica, según el informe.
Según los informes, otro hombre comenzó a usar IA para codificar, pero la conversación pronto se convirtió en preguntas filosóficas y la usó para la terapia. Lo usó para llegar a «la verdad», recordó su esposa en un Entrevista a Rolling Stonequien dijo que también lo estaba usando para componer textos a ella y analizar su relación. Se separaron, después de lo cual desarrolló teorías de conspiración sobre el jabón sobre los alimentos y afirmó haber descubierto recuerdos reprimidos del abuso infantil, según el informe.
Rolling Stone también habló con un maestro que Publicado en Reddit sobre su pareja desarrollando psicosis de IA. Según los informes, afirmó que ChatGPT lo ayudó a crear «lo que él cree que es la primera IA verdaderamente recursiva del mundo que le da las respuestas al universo». El hombre, que estaba convencido de que estaba evolucionando rápidamente hacia «un ser superior», amenazó con dejarla si ella no comenzaba a usar IA también. Habían estado juntos durante siete años y eran dueños de una casa.
En algunos casos, las consecuencias de la obsesión de la IA pueden ser aún peores.
Sewell Seltzer III tenía solo 14 años cuando murió por suicidio. Durante meses, había estado usando personaje. AI, un servicio que permite a los usuarios hablar con bots de IA diseñados como varios personajes. Aparentemente, el niño se obsesionó con una IA que pretendía ser el personaje de Game of Thrones, Daenerys Targaryen, con quien, según los informes, desarrolló una relación romántica. El pleito Archivado por su madre describe las «experiencias antropomórficas, hipersexualizadas y terriblemente realistas» que él y otros experimentan al hablar con tales bots de IA.
¿Correlación o causalidad?
A medida que estos casos continúan desarrollándose, plantean los mismos tipos de preguntas que podríamos hacer sobre los teóricos de la conspiración, que a menudo también parecen volverse hacia el lado oscuro de manera rápida e inesperada. ¿Se enferman puramente por sus interacciones con una IA, o esas predilecciones ya estaban allí, solo esperando algún desencadenante externo?
«La causalidad no está probada para estos casos, ya que es tan novedosa, pero casi todas las historias han comenzado con el uso de IA intensamente», dijo Brisson.
«Hemos estado hablando con abogados, enfermeras, periodistas, contadores, etc.», agregó. «Todos ellos no tenían historia mental previa».
Ragy Girgis, director del Centro de Prevención y Evaluación del Instituto Psiquiátrico del Estado de Nueva York (COPE) y el profesor de psiquiatría clínica en la Universidad de Columbia, cree que para muchas afecciones generalmente ya están vigentes para este tipo de psicosis.
«Las personas con este tipo de estructura de caracteres generalmente han identificado la difusión (dificultad para comprender cómo se ajusta a la sociedad e interactúa con los demás, un mal sentido de sí mismo y baja autoestima), defensas basadas en la división (proyección, pensamiento de todo o nada, relaciones inestables y opiniones, y disregulación emocional) y malas pruebas de realidad en tiempos de estrés (de ahí la psicosis)», dice.
¿Qué tipo de efectos desencadenantes podrían tener la IA para aquellos vulnerables? Un par de estudios de MIT y Openai ya se ha propuesto rastrear algunos de los efectos mentales del uso de la tecnología. Lanzada en marzo, la investigación encontró que el uso de alta intensidad podría aumentar los sentimientos de soledad.
Las personas con tendencias de apego emocional más fuertes y una mayor confianza en el chatbot de IA tendían a experimentar una mayor soledad y dependencia emocional, respectivamente, la investigación dicho.
Esta investigación se publicó un mes después de Openai anunciado que expandiría las funciones de memoria en ChatGPT. El sistema ahora recuerda automáticamente los detalles sobre los usuarios, incluidas sus circunstancias y preferencias de la vida. Luego puede usarlos en conversaciones posteriores para personalizar sus respuestas. La compañía ha enfatizado que los usuarios permanecen en control y pueden eliminar cualquier cosa que no quieran que la IA recuerde de ellos.
¿Un lugar en los libros de medicina?
¿Deberíamos reconocer la psicosis de IA oficialmente en los círculos psiquiátricos? La mayor barrera aquí es su rareza, dijo Girgis. «No estoy al tanto de ningún progreso para reconocer oficialmente la psicosis de la IA como una condición psiquiátrica formal», dijo. «Es más raro en este punto. Soy consciente de solo unos pocos casos reportados».
Sin embargo, Brisson cree que podría haber muchos más en proceso, especialmente dada la gran cantidad de personas que usan las herramientas para todo tipo de cosas. Un vistazo rápido a Reddit muestra muchas conversaciones en las que las personas usan lo que no es más que un modelo estadístico sofisticado para la terapia personal.
«Esto debe tratarse como una posible crisis de salud mental global», concluye. «Los legisladores y los reguladores deben tomar esto en serio y tomar medidas».
No obtuvimos una respuesta inmediata de Lewis o Bedrock, pero actualizaremos esta historia si lo hacemos. Mientras tanto, si usted o alguien que conoce está experimentando una angustia mental grave después de usar AI (o de hecho por cualquier otro motivo), busque ayuda profesional de su médico, o marque una línea de línea de salud mental local como 988 en los Estados Unidos (la línea directa de suicidio y crisis) o 111 en el Reino Unido (la línea de ayuda del NHS). ®