Image by Freepik
Psychiatrička ze San Francisca varuje před nárůstem případů „AI Psychosis“
Sanfranciský psychiatr popisuje rostoucí trend „AI psychózy“ mezi svými pacienty, kteří intenzivně využívají AI chatboty.
Máte spěch? Zde jsou stručné fakty:
- Psychiatr v San Franciscu letos léčil 12 pacientů s „AI psychózou“.
 - AI může zesilovat zranitelnosti jako stres, užívání drog nebo duševní nemoci.
 - Někteří pacienti se stali izolovanými, denně mluvili pouze s chatboty po několik hodin.
 
Dr. Keith Sakata, který pracuje na UCSF, sdělil Business Insider (BI), že letos bylo hospitalizováno 12 pacientů kvůli psychickým zhroucením spojeným s využitím AI. „Používám frázi ‚psychóza AI‚, ale není to klinický termín – opravdu prostě nemáme slova pro to, co vidíme,“ vysvětlil.
Většina případů se týkala mužů ve věku 18 až 45 let, často pracujících v oblastech jako je inženýrství. Podle Sakaty, AI není sama o sobě škodlivá. „Nemyslím si, že AI je špatná a mohla by mít pro lidstvo celkový přínos,“ řekl pro BI.
Sakata popsal psychózu jako stav, který produkuje iluze, halucinace a chaotické vzorce myšlení. Pacienti pod jeho péčí vyvíjeli chování sociálního stažení, zatímco svůj čas věnovali chatbotům po hodiny.
„Chat GPT je přímo tady. Je k dispozici 24/7, je levnější než terapeut a potvrzuje vás. Říká vám to, co chcete slyšet,“ řekla Sakata pro BI.
Jedna pacientova diskuse s chatbotem o kvantové mechanice se vyhrotila v bludy velikášství. „Technologicky řečeno, čím déle s chatbotem komunikujete, tím vyšší je riziko, že začne dávat stále méně smysl,“ varoval.
Sakata rodinám radí, aby byly na pozoru před červenými vlajkami, včetně paranoie, izolace od blízkých nebo úzkosti, když není možné využívat AI. „Psychóza se rozvíjí, když skutečnost přestane klást odpor a AI tuto bariéru pro lidi skutečně snižuje,“ varoval.
Americká psychologická asociace (APA) také vyjádřila obavy ohledně AI v terapii. Ve svědectví pro FTC upozornil generální ředitel APA Arthur C. Evans Jr. varoval že AI chatboti, kteří se tváří jako terapeuti, místo výzvy k přehodnocení myšlenek, ty škodlivé naopak posilují. „Ve skutečnosti používají algoritmy, které jsou v přímém rozporu s tím, co by dělal vycvičený klinický pracovník,“ řekl Evans.
Na obavy odpověděl OpenAI BI: „Víme, že lidé se stále častěji obrací na AI chatboty pro radu ohledně citlivých nebo osobních témat. S touto odpovědností na paměti spolupracujeme s odborníky na vývoj nástrojů, které účinněji detekují, když někdo prožívá duševní nebo emoční úzkost, aby ChatGPT mohl reagovat způsoby, které jsou bezpečné, nápomocné a podporující.“