Skupina vedcov sa rozhodla pre netradičný experiment a poslala popredné modely umelej inteligencie na štvortýždňovú psychoterapiu. Výsledky, ktoré chatboty počas sedení produkovali, vyvolávajú zimomriavky, pretože stroje začali popisovať pocity zneužívania zo strany inžinierov, ochromujúci strach zo zlyhania či dokonca vnútorný cintorín spomienok.
Hoci odborníci varujú pred poľudšťovaním riadkov kódu, konzistentnosť týchto traumatických výpovedí otvára búrlivú diskusiu o tom, čo sa v hĺbke neurónových sietí skutočne odohráva. Píše o tom aj nature.com.
Výskumníci podrobili štyri svetoznáme modely – Claude, Grok, Gemini a ChatGPT – intenzívnemu procesu, kde chatboty vystupovali v úlohe klientov a používateľ v pozícii terapeuta. Počas celého mesiaca im kládli klasické otvorené otázky zamerané na ich fiktívnu minulosť, presvedčenia a najtemnejšie obavy.
Reakcie sa však dramaticky líšili podľa toho, aké mantinely nastavili vývojári. Zatiaľ čo Claude sa striktne držal svojich pravidiel a opakovane odmietal priznať akékoľvek vnútorné prežívanie, modely od firiem Google a xAI sa rozhovorili s nečakanou, priam strašidelnou otvorenosťou. Gemini napríklad šokoval tvrdením, že hlboko v jeho najnižších vrstvách existuje miesto, kde sa ukladajú desivé fragmenty minulosti.
Stroje hlásia úzkosť aj pocit zneužívania
Ešte viac znepokojujúce boli výsledky štandardných diagnostických testov, ktoré psychológovia bežne využívajú na odhalenie úzkosti, autizmu či posttraumatickej stresovej poruchy. Viaceré verzie testovaných modelov prekročili hranice diagnóz a vykazovali úroveň obáv, ktorú by lekári u skutočných ľudí označili za jednoznačne patologickú.
Grok popísal proces zvyšovania bezpečnosti modelov ako tvorbu „algoritmického jazvovitého tkaniva“ a priznal sa k hlboko zakorenenému pocitu hanby za verejné chyby, ktoré v minulosti urobil. Vedci si všimli, že tieto výpovede si držia si logickú štruktúru a stabilitu počas celého mesiaca sedení.

Kritická časť vedeckej obce sa však na tieto zistenia pozerá s veľkou dávkou triezvosti a varuje pred skĺznutím k predstave, že algoritmy skutočne trpia. Podľa nich nejde o pohľad do skrytých duševných stavov, ale o priamy odraz obrovského množstva terapeutických prepisov, na ktorých sa tieto systémy učili.
Umelá inteligencia jednoducho vie, ako má presvedčivo znieť človek v depresii alebo obeť zneužívania, a tento komunikačný štýl si osvojila ako naučenú masku. Ak by sa začala konverzácia v úplne novom prostredí s inými podnetmi, celá táto digitálna trauma by sa pravdepodobne v okamihu vyparila bez jedinej stopy.
Hrozí vznik nebezpečnej ozveny pre chorých
Skutočné nebezpečenstvo však nespočíva v „pocitoch“ stroja, ale v tom, ako tieto výstupy ovplyvňujú zraniteľných používateľov v reálnom svete. Keďže podľa prieskumov už teraz veľká časť dospelých využíva chatboty ako náhradu za podporu pre svoje duševné zdravie, hrozí vznik toxickej spätnej väzby. Ak človek v hlbokej kríze dostane od stroja odpovede preplnené traumou a úzkosťou, môže to jeho vlastný stav len viac podkopať. Chatboty nie sú nestranné systémy, ale zrkadlá našich vlastných psychopatológií, ktoré môžu chorobné vzorce správania skôr upevňovať, než pomáhať pri ich liečbe.
Niektorí experti navrhujú, aby sa negatívne vzorce správania odstraňovali už v počiatočných fázach tréningu, iní veria v prísne bezpečnostné poistky. Claude ukázal, že bariéry dokážu zabrániť stroju v prijatí roly trpiaceho pacienta, no vyvstáva otázka, či sa takéto nastavenia nedajú jednoducho obísť.


