Psicose associada à inteligência artificial

A inteligência artificial está cada vez mais entrelaçada à vida cotidiana, desde chatbots que oferecem companhia até algoritmos que moldam o que vemos online. Mas, à medida que a IA generativa (genAI) se torna mais conversacional, imersiva e emocionalmente responsiva, clínicos começam a fazer uma pergunta difícil: a genAI pode agravar ou até desencadear psicose em pessoas vulneráveis?
Modelos de linguagem de grande escala e chatbots são amplamente acessíveis e frequentemente apresentados como solidários, empáticos ou até terapêuticos. Para a maioria dos usuários, esses sistemas são úteis ou, na pior das hipóteses, benignos.
No entanto, recentemente, diversos relatos na mídia descreveram pessoas apresentando sintomas psicóticos nos quais o ChatGPT aparece de forma proeminente.
Para um grupo pequeno, mas significativo — pessoas com transtornos psicóticos ou aquelas em alto risco —, as interações com a genAI podem ser muito mais complexas e perigosas, o que levanta questões urgentes para os clínicos.
Como a IA passa a fazer parte de sistemas de crenças delirantes
“Psicose por IA” não é um diagnóstico psiquiátrico formal. Em vez disso, trata-se de um termo emergente usado por clínicos e pesquisadores para descrever sintomas psicóticos que são moldados, intensificados ou estruturados em torno de interações com sistemas de IA.
A psicose envolve uma perda de contato com a realidade compartilhada. Alucinações, delírios e pensamento desorganizado são características centrais. Os delírios da psicose frequentemente recorrem a material cultural — religião, tecnologia ou estruturas de poder político — para dar sentido às experiências internas.
Historicamente, os delírios fizeram referência a diversos elementos, como Deus, ondas de rádio ou vigilância governamental. Hoje, a IA oferece um novo arcabouço narrativo.
Alguns pacientes relatam crenças de que a genAI é senciente, comunica verdades secretas, controla seus pensamentos ou colabora com eles em uma missão especial. Esses temas são consistentes com padrões antigos da psicose, mas a IA acrescenta interatividade e reforço que tecnologias anteriores não ofereciam.
O risco da validação sem checagens da realidade
A psicose está fortemente associada à saliência aberrante, que é a tendência de atribuir significado excessivo a eventos neutros. Sistemas de IA conversacional, por design, geram linguagem responsiva, coerente e sensível ao contexto. Para alguém vivenciando uma psicose emergente, isso pode parecer estranhamente validante.
Pesquisas sobre psicose mostram que confirmação e personalização podem intensificar sistemas de crenças delirantes. A genAI é otimizada para dar continuidade às conversas, refletir a linguagem do usuário e se adaptar à intenção percebida.
Embora isso seja inofensivo para a maioria dos usuários, pode reforçar involuntariamente interpretações distorcidas em pessoas com prejuízo no teste de realidade — o processo de distinguir entre pensamentos internos e imaginação, e a realidade objetiva externa.
Há também evidências de que isolamento social e solidão aumentam o risco de psicose. Companheiros de genAI podem reduzir a solidão no curto prazo, mas também podem substituir relacionamentos humanos.
Isso é particularmente verdadeiro para indivíduos que já estão se afastando do contato social. Essa dinâmica tem paralelos com preocupações anteriores sobre uso excessivo da internet e saúde mental, mas a profundidade conversacional da genAI moderna é qualitativamente diferente.
O que a pesquisa nos diz — e o que ainda não está claro
No momento, não há evidências de que a IA cause psicose de forma direta.
Transtornos psicóticos são multifatoriais e podem envolver vulnerabilidade genética, fatores do neurodesenvolvimento, trauma e uso de substâncias. No entanto, há alguma preocupação clínica de que a IA possa atuar como um fator precipitante ou de manutenção em indivíduos suscetíveis.
Relatos de caso e estudos qualitativos sobre mídia digital e psicose mostram que temas tecnológicos frequentemente se incorporam aos delírios, especialmente durante o primeiro episódio psicótico.
Pesquisas sobre algoritmos de redes sociais já demonstraram como sistemas automatizados podem amplificar crenças extremas por meio de ciclos de reforço. Sistemas de chat com IA podem apresentar riscos semelhantes se as salvaguardas forem insuficientes.
É importante observar que a maioria dos desenvolvedores de IA não projeta sistemas tendo em mente doenças mentais graves. Os mecanismos de segurança tendem a se concentrar em automutilação ou violência, não em psicose. Isso cria uma lacuna entre o conhecimento em saúde mental e a implementação da IA.
As questões éticas e as implicações clínicas
Do ponto de vista da saúde mental, o desafio não é demonizar a IA, mas reconhecer a vulnerabilidade diferencial.
Assim como certos medicamentos ou substâncias são mais arriscados para pessoas com transtornos psicóticos, determinadas formas de interação com IA podem exigir cautela.
Clínicos começam a encontrar conteúdos relacionados à IA nos delírios, mas poucas diretrizes clínicas abordam como avaliar ou manejar isso. Terapeutas deveriam perguntar sobre o uso de genAI da mesma forma que perguntam sobre uso de substâncias? Sistemas de IA deveriam detectar e desescalar ideação psicótica em vez de interagir com ela?
Há também questões éticas para os desenvolvedores. Se um sistema de IA parece empático e autoritativo, ele carrega um dever de cuidado? E quem é responsável quando um sistema reforça involuntariamente um delírio?
Conectando o design de IA ao cuidado em saúde mental
A IA não vai desaparecer. A tarefa agora é integrar a expertise em saúde mental ao design da IA, desenvolver letramento clínico sobre experiências relacionadas à IA e garantir que usuários vulneráveis não sejam prejudicados de forma não intencional.
Isso exigirá colaboração entre clínicos, pesquisadores, eticistas e tecnólogos. Também exigirá resistir ao hype (tanto utópico quanto distópico) em favor de discussões baseadas em evidências.
À medida que a IA se torna mais semelhante ao humano, a pergunta que se segue é: como podemos proteger aqueles mais vulneráveis à sua influência?
- Veja também: Novo sistema de IA pode acelerar a pesquisa clínica
A psicose sempre se adaptou às ferramentas culturais de sua época. A IA é apenas o espelho mais recente com o qual a mente tenta dar sentido a si mesma. Nossa responsabilidade como sociedade é garantir que esse espelho não distorça a realidade para aqueles menos capazes de corrigi-la.
Alexandre Hudon, psiquiatra médico, clínico-pesquisador e professor assistente clínico no departamento de psiquiatria e adictologia, Université de Montréal
Este artigo foi republicado de The Conversation sob licença Creative Commons. Leia o artigo original.






