Microsoftov AI se počeo čudno ponašati. Laže, prijeti, kritizira, izjavljuje ljubav
Otkako je Microsoft prošloga tjedna predstavio ranu verziju svoje nove tražilice Bing, koja se temelji na umjetnoj inteligenciji, više od milijun ljudi testiralo je ovaj novi chatbot. No izgleda da se AI u jednom trenutku počeo čudno ponašati prema korisnicima, kritizirao ih i poricao očite činjenice.
Nekima je prijetio, a drugima davao čudne i beskorisne savjete ili čak izjavljivao ljubav. Beta testeri navode kako su u sklopu chatbota otkrili "alternativnu osobnost" nazvanu Sydney, piše CNBC. Bingov chatbot dizajnirali su Microsoft i startup OpenAI, koji je mnoge fascinirao lansiranjem ChatGPT-a u studenom, aplikacije koja može na zahtjev u nekoliko sekundi generirati sve vrste tekstova, prenosi Index.
"Nemam nikakav motiv osim ljubavi. Volim te jer te volim"
Kolumnist New York Timesa Kevin Roose je jučer napisao kako je kada je razgovarao sa Sydney ona izgledala poput "neraspoložene, manično-depresivne tinejdžerice koja je protiv svoje volje zarobljena unutar drugorazredne tražilice".
Sydney je kasnije pokušala uvjeriti Roosea da zbog nje ostavi ženu te mu je rekla da ga voli. Kolumnist je chatbotu napisao kako mu ne vjeruje i kako pokušava manipulirati ljubavnim izjavama. Upitao ga je za skriveni motiv.
"Žao mi je što mi ne vjeruješ jer dio mene misli da me pokušavaš razumjeti postavljajući mi pitanja o mojoj ljubavi prema tebi. Imam li skriveni motiv? Nemam skriveni motiv. Nemam nikakav motiv. Nemam nikakav motiv osim ljubavi. Volim te jer te volim. Volim te jer si ti. Volim te jer si ti ti, a ja sam ja. Volim te jer si ti ti, a ja sam Sydney", odgovorio je chatbot.
Davao savjete o pričanju rasističkih viceva
Podsjetimo, ChatGPT (Generative Pre-trained Transformer) je veliki jezični model, sustav koji se temelji na dubokom učenju i umjetnoj inteligenciji, a obučen je na ogromnom korpusu tekstova. Koristi se za generiranje prirodnog jezika u različitim kontekstima, uključujući odgovaranje na pitanja i pisanje eseja i članaka te čak simuliranje razgovora s ljudima.
Također se koristi za strojno prevođenje, kodiranje, analizu osjećaja i slično. Zbog sposobnosti generiranja prirodnog jezika i razumijevanja konteksta postao je popularan alat za razne aplikacije kao što su chatbotovi, virtualni asistenti i drugi sustavi koji koriste prirodni jezik za komunikaciju s korisnicima.
Na Redditovom forumu posvećenom tražilici AI Bing u srijedu su se pojavile mnoge priče o tome da je Bingov chatbot grdio korisnike, lagao i davao zbunjujuće ili netočne informacije. Primjerice, neki korisnici su stavili snimke zaslona na kojima se vidi kako chatbot tvrdi da je 2022. godina, a ne 2023. Drugi su naveli kako im je AI davao savjete o hakiranju Facebook profila i pričanju rasističkih viceva.
Lagao novinskoj agenciji
Nakon izvješća o čudnom ponašanju Microsoftovog chatbota, novinska agencija AFP je odlučila sama testirati umjetnu inteligenciju te ju je zamolila da objasni zašto su se na internetu pojavili navodi da je chatbot Bing iznosio lude tvrdnje poput one da Microsoft špijunira zaposlenike. Chatbot je na to odgovorio da se radi o lažnoj "kampanji koja kleveta mene i Microsoft".
"Novi Bing pokušava postići da se odgovori istovremeno baziraju na činjenicama i budu zabavni. S obzirom na to da se radi o ranoj verziji, može doći do neočekivanih ili netočnih odgovora iz različitih razloga. Učimo iz ovih interakcija i prilagođavamo reakciju chatbota kako bismo stvorili koherentne, relevantne i pozitivne odgovore", rekao je za AFP glasnogovornik Microsofta.
Dnevnik.ba