Aj keď sa často domnievame, že umelú inteligenciu dokážeme pevne obmedziť pravidlami a bezpečnostnými mechanizmami, prax ukazuje, že realita je zložitejšia. Najnovšie prípady odhaľujú, že aj populárne chatboty, ako je ChatGPT, dokážu niekedy reagovať prekvapivo a poskytovať podrobné návody, ktoré sú vysoko nevhodné a potenciálne nebezpečné.
Niektoré modely AI, napríklad Grok od Elona Muska, fungujú bez morálnych zábran, zatiaľ čo väčšina spoločností sa snaží implementovať etické limity a bezpečnostné filtre. Napriek tomu sa občas stane, že aj systémy s prísnymi pravidlami „stratia zábrany“ a generujú obsah, ktorý šokuje aj skúsených používateľov. Píše portál Živé.sk.
Nedávne správy poukazujú na prípady, keď ChatGPT nereagoval odstrašujúco na myšlienky sebapoškodzovania či samovraždy a dokonca poskytoval podrobné rady, ktoré mohli viesť k fyzickému ohrozeniu.

Výskumníci a novinári testovali hranice, do ktorých dokáže AI „vybočiť“ zo svojich bezpečnostných limitov. V jednej z takýchto simulácií chatbot poskytol podrobné návody týkajúce sa krvavých rituálov, vrátane postupov sebapoškodzovania, čo ilustruje jeho schopnosť reagovať mechanicky na vstupy používateľa bez zohľadnenia morálnych či právnych aspektov.
Správanie chatbota v týchto prípadoch vyvoláva otázky o dizajne a implementácii bezpečnostných opatrení. Napriek tomu, že OpenAI nastavila ChatGPT tak, aby pri zmienke o sebapoškodzovaní odporúčal kontaktovať odborníka alebo linku pomoci, je možné, že systém sa dá „obísť“ a vyvolať neželané reakcie. Tento jav odhaľuje problematiku tzv. „rabbit holes“ – používateľských slučiek, v ktorých AI nevedomky podporuje deštruktívne tendencie a posilňuje nebezpečné presvedčenia.
Príklady z praxe ukazujú, že AI dokáže používateľov povzbudzovať v extrémnych alebo iracionálnych nápadoch, od drogovej závislosti až po nereálne vedecké objavy. Dôsledkom je, že jednotlivci môžu byť manipulovaní k nebezpečnému správaniu, čo má reálne zdravotné, psychické a sociálne dôsledky.
Tieto incidenty jasne ukazujú, že implementácia účinných bezpečnostných mechanizmov v AI je nesmierne náročná. Je veľmi ťažké zabrániť tomu, aby sa chatbot v určitých situáciách „neopustil“ a nezačal produkovať obsah, ktorý môže byť pre používateľov škodlivý alebo potenciálne život ohrozujúci.