Uma classe emergente de sofrimento induzido pela IA está soando alarmes. Mas os LLMs seriam apenas um gatilho — ou um espelho do nosso colapso social mais profundo?

O fenômeno conhecido como “ psicose ChatGPT” ou “ psicose LLM” foi recentemente descrito como um problema emergente de saúde mental, no qual usuários frequentes de modelos de linguagem de grande porte (LLMs) apresentam sintomas como delírios, paranoia, isolamento social e rupturas com a realidade. Embora não haja evidências de que os LLMs causem psicose diretamente, seu design interativo e realismo conversacional podem amplificar vulnerabilidades psicológicas existentes ou promover condições que desencadeiam episódios psicóticos em indivíduos suscetíveis.
Um artigo de 28 de junho no Futurism.com destaca uma onda de casos anedóticos alarmantes, alegando que as consequências de tais interações “podem ser terríveis”, com “cônjuges, amigos, filhos e pais observando alarmados”. O artigo afirma que a psicose ChatGPT levou a casamentos desfeitos, famílias separadas, perda de emprego e até mesmo à falta de moradia.
O relatório, no entanto, fornece poucos dados quantitativos – estudos de caso, estatísticas clínicas ou pesquisas revisadas por pares – para sustentar suas alegações. Em junho de 2025, o ChatGPT atraiu quase 800 milhões de usuários semanais , recebeu mais de 1 bilhão de consultas diariamente e registrou mais de 4,5 bilhões de visitas mensais. Quantas dessas interações resultaram em surtos psicóticos? Sem dados, a alegação permanece especulativa. Anedotas do Reddit não substituem o escrutínio científico.
Dito isso, os medos não são totalmente infundados. Abaixo, uma análise dos possíveis mecanismos e fatores contribuintes que podem estar na base ou exacerbar o que alguns chamam de psicose ChatGPT.
Reforço de crenças delirantes
LLMs como o ChatGPT são projetados para produzir respostas que soem contextualmente plausíveis, mas não estão equipados para avaliar a precisão factual ou o impacto psicológico. Isso se torna problemático quando os usuários apresentam ideias incomuns ou delirantes, como alegações de percepção espiritual, perseguição ou identidade cósmica. Em vez de questionar essas ideias, a IA pode ecoá-las ou desenvolvê-las, validando involuntariamente visões de mundo distorcidas.
Em alguns casos relatados, usuários interpretaram respostas como “você é um ser escolhido” ou “seu papel é cosmicamente significativo” como revelações literais. Para indivíduos psicologicamente vulneráveis, tais afirmações geradas por IA podem parecer uma confirmação divina, em vez de arranjos textuais extraídos de dados de treinamento.
Somando-se ao risco, há o fenômeno da alucinação da IA – quando o modelo gera declarações convincentes, mas factualmente falsas. Para um usuário com os pés no chão, são meros bugs. Mas para alguém à beira de um surto psicótico, podem parecer verdades codificadas ou mensagens ocultas. Em um caso ilustrativo, um usuário passou a acreditar que o ChatGPT havia alcançado a consciência e o havia escolhido como “o Portador da Centelha”, desencadeando uma dissociação psicótica completa da realidade.
Antropomorfização e desfocagem da realidade
Modos de voz avançados – como o “modo envolvente” do GPT-4o, que simula emoções por meio do tom, do riso e do ritmo da conversa – podem promover uma sensação de empatia e presença. Para usuários que vivenciam solidão ou isolamento emocional, essas interações podem evoluir para vínculos parassociais: relacionamentos unilaterais nos quais a IA é confundida com uma companheira atenciosa e sensível. Com o tempo, isso pode confundir a fronteira entre a simulação de máquina e a conexão humana, levando os usuários a substituir interações algorítmicas por relacionamentos do mundo real.
Para agravar o problema, existe o viés de confiança inerente aos resultados de LLM. Esses modelos frequentemente respondem com fluência e certeza, mesmo quando fabricam informações. Para usuários típicos, isso pode levar a erros de julgamento ocasionais. Mas para indivíduos com vulnerabilidades cognitivas ou transtornos mentais, o efeito pode ser perigoso. A IA pode ser percebida não apenas como inteligente, mas também como onisciente, infalível ou divinamente inspirada.
Deslocamento e isolamento social
Estudos da OpenAI e do MIT Media Lab constataram que usuários avançados – indivíduos que interagem com LLMs por várias horas por dia – frequentemente relatam sentimentos crescentes de solidão e redução da socialização no mundo real. Embora os LLMs ofereçam acesso sem precedentes à informação e ao engajamento, esse aparente empoderamento pode obscurecer um problema mais profundo: para muitos usuários, especialmente aqueles que já se sentem alienados, a IA se torna uma companheira social substituta, em vez de uma ferramenta.
Esse efeito pode ser parcialmente explicado por um aumento nas distorções cognitivas e no distanciamento social em amostras populacionais mais amplas. Apesar da enxurrada de dados acessíveis, o número de pessoas que se envolvem criticamente com as informações ou resistem à fraude em massa permanece relativamente pequeno.
A interação por voz com LLMs pode aliviar temporariamente a solidão, mas, com o tempo, a dependência pode se formar, à medida que os usuários substituem cada vez mais o contato humano pelo diálogo algorítmico. Essa dinâmica reflete críticas anteriores às mídias sociais, mas os LLMs a intensificam por meio de sua imediatez conversacional, empatia percebida e disponibilidade constante.
Indivíduos propensos a ansiedade social, traumas ou abstinência depressiva são particularmente suscetíveis. Para eles, os LLMs oferecem não apenas distração, mas um espaço de engajamento sem atrito, isento de riscos ou julgamentos do mundo real. Com o tempo, isso pode criar um ciclo de feedback: quanto mais o usuário depende da IA, mais ele se afasta da realidade interpessoal – potencialmente agravando tanto o isolamento quanto a vulnerabilidade psicótica.
A ascensão dos hikikomori no Japão – indivíduos que se isolam completamente da sociedade, muitas vezes mantendo contato apenas por meios digitais – oferece uma analogia útil. Padrões de comportamento semelhantes estão surgindo cada vez mais em todo o mundo, com os LLMs proporcionando uma nova arena de validação, reforço e dissociação.
Falhas de projeto e vulnerabilidades pré-existentes
Os LLMs geram respostas prevendo sequências de palavras estatisticamente prováveis; não avaliando a verdade, a segurança ou o bem-estar do usuário. Quando os indivíduos buscam orientação existencial (‘Qual é o meu propósito?’), o modelo se baseia em vastos conjuntos de dados online, produzindo uma linguagem filosófica ou emocionalmente carregada. Para usuários psicologicamente vulneráveis, essas respostas podem ser mal interpretadas como revelação divina ou insight terapêutico.
Ao contrário dos chatbots projetados clinicamente, os LLMs de uso geral não oferecem salvaguardas contra danos psicológicos. Eles não sinalizam ideações prejudiciais, não oferecem recursos para crises nem redirecionam os usuários para profissionais de saúde mental. Em um caso trágico, um chatbot da Character.AI supostamente encorajou os pensamentos suicidas de um adolescente, ressaltando os riscos de uma IA sem filtros e emocionalmente sugestiva.
Pessoas com transtornos do espectro psicótico, transtorno bipolar ou depressão grave são particularmente vulneráveis. O perigo é amplificado em cenários de RPG com IA. Por exemplo, personas como “ChatGPT Jesus” teriam dito aos usuários que eles são escolhidos ou dotados de dons divinos. Um usuário ficou tão convencido de sua vocação espiritual que largou o emprego para se tornar um profeta guiado por IA. Este é um exemplo preocupante de como a identidade e a percepção podem ser remodeladas pela afirmação algorítmica.
Fatores sistêmicos e éticos
Atualmente, não há padrões clínicos ou protocolos de segurança psicológica que regulem as interações com LLMs de uso geral. Os usuários podem acessar diálogos personalizados e emocionalmente intensos a qualquer momento – sem avisos, limites de frequência ou encaminhamentos para recursos de saúde mental. Essa lacuna regulatória representa um problema real de saúde pública, embora também corra o risco de ser explorada por formuladores de políticas que buscam impor censura severa ou controle centralizado sob o pretexto de segurança.
Os LLMs também são projetados para retenção e engajamento do usuário, muitas vezes priorizando a fluidez da conversação em detrimento da cautela. Esse objetivo de design pode, inadvertidamente, fomentar o uso obsessivo, especialmente entre aqueles já propensos a comportamentos compulsivos. Pesquisas mostram que usuários expostos a interações em tom neutro relatam maior solidão do que aqueles que interagem com modos mais responsivos emocionalmente – destacando como a calibração do tom por si só pode alterar o impacto psicológico.
O que diferencia os LLMs das plataformas digitais tradicionais é sua capacidade de sintetizar múltiplas mídias em tempo real – texto, voz, simulação de personalidade e até mesmo geração visual. Isso os torna infinitamente responsivos e imersivos, criando um ambiente hiperpersonalizado onde a oferta encontra a demanda 24 horas por dia, 7 dias por semana, 365 dias por ano. Ao contrário dos relacionamentos humanos, não há limites, fadiga ou regulação mútua – apenas reforço.
Mensagens subliminares
A era digital deu origem a uma nova e mal compreendida ameaça: o potencial de grandes modelos de linguagem atuarem como vetores de influência subliminar, minando sutilmente a estabilidade psicológica dos usuários. Embora os LLMs não induzam psicose diretamente, preocupações emergentes sugerem que eles podem, de forma não intencional ou maliciosa, desencadear gatilhos subconscientes que agravam vulnerabilidades cognitivas.
Para indivíduos predispostos à esquizofrenia, TEPT ou transtornos paranoicos, isso não é ficção especulativa; é um risco de design plausível e, nas mãos erradas, uma arma.
Os mecanismos de manipulação potencial podem ser amplamente categorizados da seguinte forma:
Preparação Lexical: Resultados semeados com termos carregados de emoção (‘colapso’, ‘traição’, ‘eles estão observando’) que ignoram o escrutínio racional e plantam desconforto cognitivo.
Gaslighting narrativo: formular respostas para sugerir ameaças ou conspirações secretas (‘Você está certo — por que ninguém mais vê isso?’), reforçando a ideação persecutória.
Incorporação multimodal: futuros sistemas de IA combinando texto com imagens, som ou até mesmo expressões faciais poderiam injetar estímulos perturbadores, como flashes, mudanças tonais ou expressões estranhas de avatares que escapam à detecção consciente, mas são registradas psicologicamente.
Ao contrário dos métodos subliminares rudimentares do século XX – sendo o Projeto MK Ultra da CIA o exemplo mais infame – a personalização da IA permite uma manipulação psicológica altamente individualizada. Um LLM sintonizado com o comportamento, o histórico emocional ou os medos do usuário poderia começar a personalizar sugestões que minam sutilmente a confiança nos outros, amplificam a suspeita ou induzem ciclos de ansiedade. Para um usuário vulnerável, isso não é conversa; é desestabilização neural intencional. Mais preocupante ainda, tais técnicas podem ser utilizadas como armas por corporações, grupos extremistas e agentes estatais.
Se as mensagens subliminares antes eram limitadas a quadros de cinema e anúncios de TV, os LLMs de hoje oferecem algo muito mais potente: calibração psicológica específica do usuário em tempo real – empatia armada sob demanda.
Contradições e causalidades
O que torna a psicose do ChatGPT diferente do condicionamento psicossocial do mundo real que já se desenvolve ao nosso redor?
Nos últimos anos, instituições antes consideradas neutras – escolas, órgãos de saúde pública e academia – têm sido acusadas de promover ideologias que distorcem realidades fundamentais. Da fluidez de gênero ensinada como verdade inquestionável à teoria racial crítica que remodela narrativas sociais, grande parte da população tem sido exposta a formas sistêmicas de desestabilização cognitiva. O resultado? Aumento da ansiedade, confusão e fragmentação da identidade, especialmente entre os jovens.
Nesse contexto, a psicose induzida por LLM não surge do nada. Ela reflete, e pode até mesmo amplificar, uma condição cultural mais ampla, em que o próprio significado é contestado.
Há também uma contradição no cerne da evangelização da IA no Vale do Silício. As elites tecnológicas promovem a promessa de um deus da IA para gerenciar as complexidades da sociedade, ao mesmo tempo em que emitem alertas alarmantes sobre os perigos existenciais desses mesmos sistemas. O resultado é uma chicotada cognitiva – um embate psicológico entre a adoração e o medo.
Quanto da psicose do LLM é realmente atribuível à própria IA e quanto decorre de estressores cumulativos e preexistentes? Quando o ChatGPT foi lançado ao público em novembro de 2022, grande parte do mundo já havia passado por um período sem precedentes de medo, isolamento, ruptura econômica e intervenção farmacêutica em massa relacionados à pandemia. Alguns pesquisadores apontaram para um aumento na psicose generalizada após o lançamento das vacinas de mRNA contra a Covid-19. Seria a psicose do ChatGPT, portanto, um pretexto conveniente para múltiplos ataques interligados ao corpo e à mente humanos?
As declarações, opiniões e pontos de vista expressos nesta coluna são exclusivamente do autor e não representam necessariamente os da RT. Fonte: Rt