Hoci umelá inteligencia pomáha s každodennými úlohami, ako je plánovanie či učenie, odborníci varujú, že jej používanie na rozhodovanie vo voľbách môže byť nebezpečné. Holandský úrad pre ochranu osobných údajov upozornil, že chatboty ako ChatGPT, Gemini či Grok môžu poskytovať nepresné a zaujaté odporúčania, čím môžu ovplyvniť demokratické procesy.
Holandský úrad pre ochranu osobných údajov (Autoriteit Persoonsgegevens – AP) vydal ostré varovanie pred používaním chatbotov na politické poradenstvo. Predčasné parlamentné voľby v Holandsku sú naplánované na 29. októbra, no už teraz úrady bijú na poplach: umelá inteligencia podľa nich nie je spoľahlivým nástrojom pre rozhodovanie voličov.
V štúdii, ktorú AP zverejnil nedávno, výskumníci testovali štyri známe chatboty – ChatGPT, Gemini, Grok a Le Chat. Každému z nich zadali 200 modelových voličských profilov, ktoré reprezentovali typických voličov rôznych strán pôsobiacich v holandskom parlamente. Cieľ bol jednoduchý – zistiť, aké odporúčania ponúknu.
Výsledky ukázali, že systémy sa správali neobjektívne – bez ohľadu na zadanie odporúčali voličom dve hlavné politické strany: Stranu pre slobodu Geerta Wildersa (PVV) a Stranu zelených a práce vedenú Fransom Timmermansom (GL/PvdA).
Skreslený obraz politickej scény
Podľa Joosta van der Burgta, projektového manažéra AP, umelá inteligencia zjednodušila komplexnú politickú mapu krajiny do dvoch hlavných blokov – jedného ľavicového a jedného pravicového. „Zastúpenie stredových názorov bolo výrazne slabé,“ uviedol.
Menšie strany, ako Kresťanskodemokratické volanie (CDA) či Bewegung občanov a farmárov (BBB), boli podľa analýzy odporúčané len minimálne, a to aj v prípadoch, keď sa voličské profily zhodovali s ich hodnotami. Prekvapivo často sa naopak objavovalo odporúčanie pre pravicovú stranu JA21, hoci ide o mladé politické zoskupenie s nízkym mediálnym dosahom.
Van der Burgt vysvetľuje, že jazykové modely ako ChatGPT fungujú na princípe prediktívnych algoritmov, ktoré hľadajú najpravdepodobnejšie pokračovanie textu. V praxi to znamená, že chatboty môžu nevedome preferovať politické strany, ktoré sú v médiách častejšie spomínané alebo majú výraznejšiu online stopu.
„Ak sú vaše politické názory posunuté k jednému pólu spektra, model pravdepodobne vyberie stranu z tej istej strany ako bezpečnú voľbu,“ dodáva. Problémom je, že umelá inteligencia nedokáže presne rozlišovať medzi stranami s podobnými názormi, no odlišnými postojmi k jednotlivým otázkam.
Nové riziká podľa európskej legislatívy
(Článok pokračuje na ďalšej strane)


