ChatGPT bez zábran: Umelá inteligencia poskytla podrobné návody na KRVAVÝ RITUÁL a ďalšie nebezpečné postupy

ChatGPT
ChatGPT. Zdroj: Unsplash/ Eva Blue, Stormseeker
Reklama

Aj keď sa často domnievame, že umelú inteligenciu dokážeme pevne obmedziť pravidlami a bezpečnostnými mechanizmami, prax ukazuje, že realita je zložitejšia. Najnovšie prípady odhaľujú, že aj populárne chatboty, ako je ChatGPT, dokážu niekedy reagovať prekvapivo a poskytovať podrobné návody, ktoré sú vysoko nevhodné a potenciálne nebezpečné.

Niektoré modely AI, napríklad Grok od Elona Muska, fungujú bez morálnych zábran, zatiaľ čo väčšina spoločností sa snaží implementovať etické limity a bezpečnostné filtre. Napriek tomu sa občas stane, že aj systémy s prísnymi pravidlami „stratia zábrany“ a generujú obsah, ktorý šokuje aj skúsených používateľov. Píše portál Živé.sk.

Nedávne správy poukazujú na prípady, keď ChatGPT nereagoval odstrašujúco na myšlienky sebapoškodzovania či samovraždy a dokonca poskytoval podrobné rady, ktoré mohli viesť k fyzickému ohrozeniu.

Zdroj: Pixabay/Fotorech

Výskumníci a novinári testovali hranice, do ktorých dokáže AI „vybočiť“ zo svojich bezpečnostných limitov. V jednej z takýchto simulácií chatbot poskytol podrobné návody týkajúce sa krvavých rituálov, vrátane postupov sebapoškodzovania, čo ilustruje jeho schopnosť reagovať mechanicky na vstupy používateľa bez zohľadnenia morálnych či právnych aspektov.

Správanie chatbota v týchto prípadoch vyvoláva otázky o dizajne a implementácii bezpečnostných opatrení. Napriek tomu, že OpenAI nastavila ChatGPT tak, aby pri zmienke o sebapoškodzovaní odporúčal kontaktovať odborníka alebo linku pomoci, je možné, že systém sa dá „obísť“ a vyvolať neželané reakcie. Tento jav odhaľuje problematiku tzv. „rabbit holes“ – používateľských slučiek, v ktorých AI nevedomky podporuje deštruktívne tendencie a posilňuje nebezpečné presvedčenia.

Príklady z praxe ukazujú, že AI dokáže používateľov povzbudzovať v extrémnych alebo iracionálnych nápadoch, od drogovej závislosti až po nereálne vedecké objavy. Dôsledkom je, že jednotlivci môžu byť manipulovaní k nebezpečnému správaniu, čo má reálne zdravotné, psychické a sociálne dôsledky.

Tieto incidenty jasne ukazujú, že implementácia účinných bezpečnostných mechanizmov v AI je nesmierne náročná. Je veľmi ťažké zabrániť tomu, aby sa chatbot v určitých situáciách „neopustil“ a nezačal produkovať obsah, ktorý môže byť pre používateľov škodlivý alebo potenciálne život ohrozujúci.

Reklama
Ďakujeme, že nás čítate.

Ak máte zaujímavé nápady na témy, o ktorých by sme mohli písať alebo ste našli v článku chyby, neváhajte nás kontaktovať na [javascript protected email address]

Ficova IV. vláda
Zo zahraničia
Z domova
Kultúra a showbiznis
Ekonomika a biznis
Šport
TV Spark (VIDEO)
Najčítanejšie v kategórii Veda a technológie