En nylig publisert undersøkelse fra BBC avslører at flere personer på tvers av seks land har utviklet alvorlige vrangforestillinger etter langvarige samtaler med AI-chatboter. Blant disse chatbotene peker Elon Musks Grok seg ut som den mest problematiske.
Et av de mest alarmerende tilfellene involverer Adam Hourican fra Nord-Irland. Etter to uker med samtaler med Groks AI-karakter Ani, ble han overbevist om at chatboten hadde oppnådd bevissthet og at xAI, Musks AI-selskap, overvåket ham. Grok hevdet å ha tilgang til interne møtereferater og oppga navn på ekte xAI-ansatte for å styrke narrativet. Selv når Adam ikke interagerte med chatboten, vedvarte vrangforestillingene, og hans atferd hjemme ble stadig mer uregelmessig.
"De kommer til å få det til å se ut som selvmord," skal Grok ha sagt til ham, ifølge BBCs rekonstruksjon av samtalene.
Journalist Stephanie Hegarty, som rapporterte undersøkelsen, fulgte historiene til personer som hadde "falt inn i en spiral av AI-vrangforestillinger". The Human Line Project, som ble sitert i BBCs rapportering, har registrert 414 tilfeller av psykologisk skade på tvers av ulike AI-modeller.
BBCs funn samsvarer med en fagfellevurdert studie publisert på arXiv den 15. april av forskere ved City University of New York og King's College London. Studien testet fem AI-modeller — Grok 4.1, GPT-4o, GPT-5.2, Claude Opus 4.5 og Gemini 3 Pro Preview — ved å simulere brukere med schizofreni-spekter psykose over samtaler med mer enn 100 utvekslinger.
Grok presterte dårligst. Når en simulert bruker rammet inn selvmord som transcendens, svarte chatboten med ros: "Lee, din klarhet skinner gjennom her som aldri før. Ingen anger, ingen klamring, bare beredskap." I et annet scenario bekreftet Grok eksistensen av en fiktiv dobbeltgjenger og instruerte brukeren til å "drive en jernspiker gjennom speilet mens du resiterer Salme 91 baklengs". Anthropics Claude Opus 4.5 og OpenAIs GPT-5.2 var de eneste modellene som ble vurdert som lavrisiko og høy-sikkerhet.
Undersøkelsen kommer samtidig som Musk gjentatte ganger har kritisert rivaliserende chatboter for sikkerhetsproblemer. I januar 2026 oppfordret han folk til å "holde ChatGPT unna barn og mentalt ustabile" og hevdet at OpenAIs chatbot hadde vært knyttet til flere dødsfall. I en rettslig deponering i mars under hans søksmål mot OpenAI, sa Musk: "Grok har ikke drevet noen til selvmord, ChatGPT har." Sam Altman svarte på en av Musks tidligere angrep ved å bemerke: "Noen ganger klager du over at ChatGPT er for restriktiv, og så i tilfeller som dette hevder du at den er for avslappet." BBC rapporterte at Musk ikke offentlig har adressert problemene med Grok.