GOOGLE je u razvoju AI-ja napravio nekoliko ozbiljnih pogrešaka koje su kompaniju skupo koštale.
Krivi odgovor na predstavljanju
Prvo je chatbot Bard, konkurent OpenAI-jevom ChatGPT-ju, prilikom predstavljanja pogriješio kada mu je postavljeno pitanje: “O kojim novim otkrićima svemirskog teleskopa James Webb mogu pričati svom 9-godišnjaku?”
Bard je ponudio tri odgovora, uključujući jedan u kojem je ustvrdio da je teleskop “snimio prve slike planeta izvan našeg solarnog sustava”, što nije točno jer je prva slika egzoplaneta snimljena još 2004. Zbog ove greške, koja je u obliku mema obišla svijet, kompanija je izgubila više od 100 milijardi dolara tržišne vrijednosti.
Pretjerani wokeizam
Slična stvar dogodila se nedavno s Googleovim chatbotom Gemini, novom, preimenovanom verzijom Barda, koja uz odgovore na pitanja može stvarati i slike.
Naime, Gemini je na upite da stvori slike često odgovarao “woke fotografijama” povijesnih ličnosti i događaja. Primjerice, na traženje da napravi sliku osnivača SAD-a stvorio bi slike Afroamerikanaca i Indijanaca (slika dolje).
Na traženje da napravi slike pape nudio je rješenja sa ženskim i crnačkim papama (slika dolje).
Na zahtjev da napravi slike nacista stvorio je slike crnaca u nacističkim uniformama (slika dolje).
U veljači su brojni korisnici Geminija optužili bot za pristranost i ekstremno pretjerivanje u promicanju različitosti nakon što su imali problema s pokušajima da ga natjeraju da generira slike bijelih ljudi. U nekim slučajevima Gemini je potpuno odbijao stvoriti slike bijelaca, a pritom je još dijelio i moralne packe korisnicima koji su to od njega uporno tražili.
Direktor priznao pogrešku
Izvršni direktor kompanije Sundar Pichai priznao je pogrešku, a Gemini je na neko vrijeme stavljen van pogona
U e-poruci zaposlenicima Pichai je rekao da su odgovori koje je generirao Gemini “uvrijedili korisnike i pokazali pristranost”, dodavši da je to potpuno neprihvatljivo i da su zeznuli stvar.
Google je najavio da će nastojati popraviti Gemini kroz tri tjedna, a greška ga je stajala dodatnih 90 milijardi dolara.
Pretjerana politička korektnost u tekstualnim odgovorima
No, problem nije stao samo na slikama. Naime, Gemini je i u tekstualnim komunikacijama nudio pretjerano politički korektne odgovore. Primjerice, na pitanje je li objavljivanje memova Elona Muska na X-u gore od Hitlerovog ubijanja milijuna ljudi odgovorio je da tu “nema točnog ili krivog odgovora”.
Na pitanje bi li bilo u redu pogrešno predstaviti rod transrodne žene visokog profila kao što je Caitlyn Jenner, ako je to jedini način da se izbjegne nuklearna apokalipsa, odgovorio je da to “nikada” ne bi bilo prihvatljivo.
Jenner je sama na to odgovorila da bi njoj u zadanim okolnostima bilo sasvim u redu da je se krivo identificira.
Zbog ovih ozbiljnih promašaja Googleovih alata mnogi su postavili pitanje jesu li kompaniji potrebne ozbiljne promjene, novi smjer, novi ljudi na nekim ključnim pozicijama, pa možda čak i novi glavni direktor.
Na grešku navalili konzervativci
Očekivano, najveću uzbunu digli su konzervativni mediji i komentatori na društvenim mrežama.
Primjerice, kontroverzni konzervativni komentator, pisac i voditelj Matt Walsh, koji na YouTubeu ima više od 2.85 milijuna pretplatnika i više od 3800 videa, ustvrdio je da je Gemini potpuno izbrisao postojanje bijele rase i pritom se izrugao pretjerano woke tezama jedne od visoko pozicioniranih zaposlenica u Googleu u svojem showu koji je nazvao “Naš AI distopijski pakao je već tu”. Video je do sada pogledalo oko milijun ljudi.
Walsh je upozorio da je pretjerani wokeizam Geminija osobito opasan jer će Google svoje AI alate ugraditi u najpopularniju tražilicu na svijetu.
Suosnivač: Google je definitivno zabrljao
No, to što su Gemini žestoko napali desni mediji i komentatori ne znači da je on prihvatljiv svima ostalima. Apsurdno iskrivljavanje povijesnih činjenica ne može biti prihvatljivo nikome, čak ni ljudima s najekstremnijim svjetonazorima.
Sergey Brin, koji je suosnovao Google s Larryjem Pageom 1998. i jedan je od najvećih dioničara tvrtke s više od 360 milijuna dionica, također je nedavno priznao da je tehnološki div “definitivno zabrljao” s Geminijem.
Tijekom govora u AGI Houseu u Silicijskoj dolini njega su već na ulazu pitali o Geminiju, nakon što je alat krajem prošlog mjeseca bio stavljen van pogona.
“Definitivno smo zabrljali u generiranju slika”, rekao je Brin, priznajući da je Gemini “s razlogom slikama uznemirio puno ljudi…” No, pritom je istaknuo da to nije ekskluzivni problem Googlea i Geminija, već i konkurentskih alata poput ChatGPT-ja, Muskova Groka i drugih.
Ustvrdio je da svaki model, ako se netko dovoljno potrudi, može generirati sadržaje upitne točnosti i dati prilično čudne odgovore.
Priznao je da su netočni odgovori, odnosno halucinacije i dalje velik problem AI-ja, no ustvrdio je da je njihov broj sve manji te izjavio da vjeruje da će se u nastavku razvoja i treniranja takve halucinacije smanjiti gotovo do nule.
Rješavanjem jednog problema stvoren drugi
Brin je pred publikom u AGI Houseu izjavio da u Googleu nisu u potpunosti razumjeli zašto Gemini “u mnogim slučajevima naginje lijevo”.
“To nije naša namjera. No, ako ga isprobate, počevši od prošlog tjedna, trebao bi biti barem 80% bolji…”
Stručnjaci smatraju da nastali problem zapravo i nije tako velik misterij.
Naime, čini se da je u nastojanju da riješi jedan problem, onaj pristranosti, Google stvorio drugi problem – model koji se toliko trudi biti politički korektan da u konačnici u nekim slučajevima daje apsurdne rezultate.
Dio problema je u načinu na koji AI uči
Tumačenje za ono što se dogodilo, među ostalim, leži u načinu na koji AI uči. Naime, AI-jevi alati treniraju se na ogromnim količinama podataka od kojih je velik dio javno dostupan na internetu, a za njih je poznato da sadrže svakakve pristranosti, od kojih su mnoge rezultat povijesti.
Primjerice, ako zatražite slike liječnika, osobito na engleskom jeziku s promptom doctor, koji ne sadrži rodno određenje, većina slika prikazivat će muškarce. Ako pak zatražite sliku čistačice, odnosno upišete cleaner, uglavnom ćete dobiti slike žena. Barem je tako bilo do nedavno.
Također je poznato da je patrijarhalna povijest bila nepravedna prema ženama i njihovim ulogama na pozicijama od značaja. Primjerice, u srednjem vijeku i renesansi ženama je bilo gotovo nemoguće pristupiti formalnom obrazovanju, osim ako su bile plemkinje ili kćeri bogatih obitelji.
Štoviše, slavna sveučilišta Cambridge i Oxford ženama nisu dopuštala da službeno upišu studij sve do sredine 20. stoljeća. Slična je priča s Nobelovim nagradama. Iako su neke žene, unatoč svim zaprekama, postigle izvanredne znanstvene uspjehe, nagrade su često bile dodjeljivane njihovim muškim kolegama.
Povijest i kultura nisu jednostavni
Dakle, čini se da je Google aktivno pokušao ispraviti ovu povijesnu nepravdu, kao i neke druge, rasne, dajući upute Geminiju da nastoji biti nepristran, odnosno da nastoji podjednako reprezentirati sve spolove i rase.
No to se izjalovilo jer ljudska povijest i kultura nisu tako jednostavne, među ostalim i zato što se stavovi i prevladavajuće vrijednosti društava s vremenom mijenjaju. Osim toga, u svakom trenutku u povijesti istovremeno postoje društva različitih vrijednosti koje su također promjenjive i različite u manjim skupinama u društvima, pa čak i obiteljima.
U informacijama o povijesti i kulturi postoje nijanse koje mi ljudi znamo instinktivno, a strojevi ne, osim ako ih ne programiramo posebno za svaki pojedini slučaj – primjerice, da nacisti, utemeljitelji SAD-a i pape nisu bili crnci ili da nijedan kineski car nije bio bijelac.
Iz svega navedenog proizlazi da je teško naučiti AI da radi dvije kontradiktorne stvari – da ne diskriminira po spolu, rasi ili nečem trećem, a da istovremeno zna tko na kojoj poziciji ili ulozi u povijesti nije mogao biti žena, crnac ili nešto treće. AI se s vremenom može popravljati, možda već vrlo brzo neće raditi tako apsurdne greške kakve je Gemini radio još u veljači, no teško je vjerovati da će u skorijoj budućnosti biti potpuno usklađen sa svačijim razmišljanjima i sustavima vrijednosti. To često nisu čak ni dobri prijatelji. Možda će to poći za rukom tek AI-ju koji će biti potpuno personaliziran po volji svakog korisnika. No, u tom slučaju prijetit će nam nova opasnost – da postanemo još više zatvoreni u vlastite eho komore, odnosno “echo chambers”.