Prošle godine, ChatGPT je svojim potencijalom privukao pažnju celog sveta. Od tada nije prošlo puno vremena, a svetske tech kompanije priključile su se trci za razvoj još naprednije veštačke inteligencije.

Microsoft je početkom februara lansirao Bing AI – unapređenu verziju svog pretraživača, koja može potpuno promeniti naš pristup internetu. Njihov rival, Google, najavio je Google Bard kojim namerava da sustigne i prevaziđe konkurenciju. Nijedna kompanija ne štedi na marketingu, i rade sve što mogu da privuku pažnju na sebe, svoje inovacije i benefite.

Ali postoji i druga strana ove priče, o kojoj se ne priča dovoljno. Govorimo o  potencijalnim rizicima koje AI integracija donosi.

Daleko od toga da se protivimo AI tehnologiji kao takvoj. Ona će sasvim sigurno olakšati mnoge oblasti naših života. Ipak, neophodno je da postanemo svesni nekih opasnosti veštačke inteligencije i kako one mogu uticati na naš svakodnevni život. Ovde ćemo navesti tri najvažnija faktora.

 

1) Pružanje netačnih informacija

GPT modeli se baziraju na LLM tehnologiji. LLM, ili Large Language Models, su poznati po tome što neretko daju besmislene odgovore koji se, na prvi pogled, čine ispravnim. To izgleda otprilike ovako.

Zamislite da postavljate jednostavno pitanje onlajn četbotu – to može biti ,,da ili ne” pitanje, ili neka opšta statistička informacija. U većini slučajeva dobićete kratak, jasan i neupitno tačan odgovor.

Ali šta se događa ako postavite pitanje na neku složeniju temu, na primer nešto u vezi sa politikom ili fizikom? Šta se desi kada mu zadate neku moralnu dilemu? 

U tom slučaju možete dobiti odgovor od nekoliko pasusa, koji bi bio fenomenalno formulisan, a često bi sadržao i stručne žargone neke branše. Ali… ako te odgovore detaljnije analizirate, možete naići na mnoge netačne informacije.

Korisnici često veruju rezultatima onlajn pretraga. Ipak se radi o softveru u koji se ulažu milijarde dolara, zar ne? Taj sofver takođe ima pristup mnogim bazama podataka, a često daje sasvim tačne odgovore. 

Problem novih GPT četbotova leži u njihovoj strukturi. Program se ,,trenira” ubacivanjem mase podataka, na osnovu kojih on uči i kasnije formuliše nove odgovore na pitanja. Ovo je sjajno u teoriji, ali praksa nam ne pruža tako divne rezultate.

Google je neposredno pred lansiranje Bard projekta u Parizu napravio grešku koja je kompaniju koštala 140 milijardi dolara.

Objavili su promotivni materijal na kome je Bard dao netačan odgovor na jednostavno pitanje. 

Skandal koji je usledio samo je jedan od primera koji sugerišu da ovakva tehnologija i dalje nije spremna za javnost. Zamislite šta bi se desilo ako bi neko tražio savet za prvu pomoć, a dobio pogrešne informacije?

 

2) Zloupotreba veštačke inteligencije

Pored navedenog problema, čiji uzrok leži u infrastrukturi samih AI programa, postoji i spoljašnji faktor rizika. U ovom slučaju, to su sami korisnici GPT četbotova koji žele da zloupotrebe ili manipulišu botove u svoju korist – bilo iz šale, ili zle namere.

Četbotovi uče na osnovu interakcija sa korisnicima radi poboljšanja kvaliteta usluge. Pamte određene podatke koje onda mogu reprodukovati kasnije.

Tako je, pre nekoliko godina, Microsoft napravio Twitter nalog za svoj Tay AI četbot. Namera kompanije bila je dobronamerna – bot bi na osnovu baze onlajn mimova i tvitova automatski odgovarao na neke objave korisnika, a povremeno i započinjao razgovore.

Tay AI Twitter nalog je radio svega 16 sati, nakon čega je morao biti ugašen. Razlog?

Određene grupe korisnika našle su način da nauče Tay da reprodukuje rasističke i šovinističke stavove. Nije prošao ni dan, a korisnici su već uspeli da sabotiraju multimilijardersku kompaniju iz šale. 

Skandal sa Tay botom je trajno oštetio reputaciju Microsoft-a. Reputaciju koju kompanija želi da povrati svojim Bing AI projektom.

Ipak, izvršni direktor Microsoft korporacije, Satja Nadela (Satya Nadella), ostaje optimističan. Njegov entuzijazam je toliko veliki da je skorašnje promene u AI sferi nazvao novom paradigmom tehnološkog razvoja. Ubacivanje veštačke inteligencije u internet pretrage poredi sa prvim uvođenjem grafičkog interfejsa ili pojavom pametnih telefona.

 

3) Zakonske dileme

Treći problem o kojem ćemo govoriti tiče se zakonske regulative u vezi sa AI tehnologijom.

Velike promene koje nas očekuju neće doći bez negativnih posledica. Svako će imati lakši pristup informacijama, a to uključuje i podatke koje mogu naškoditi ljudima. Ako želite da se više informišete oko nekih ekstremističkih grupa, pretraživači vas neće sprečiti u tome. Ali vas takođe neće sprečiti ako želite da stupite u kontakt sa tim grupama.

Na internetu već postoje enklave politički radikalnih pojedinaca, koji organizuju razne akcije putem društvenih mreža. U zakonu SAD-a postoji Član 230, koji firme kao što su Microsoft i Google lišavaju odgovornosti za sadržaj koji se objavljuje na njihovim platformama.

Programi ovih kompanija samo pretražuju dostupne informacije i pružaju ih korisnicima. Sledi da će integracijom veštačke inteligencije ove platforme omogućiti potencijalno opasnim pojedincima da još lakše stupe u kontakt sa istomišljenicima.

To je jedan deo ovog problema. Drugi deo tiče se ličnih informacija koje četbotovi sakupljaju od svojih korisnika. Internet pretraživače često ne zanima koliko imate godina. Tako je u Italiji skoro došlo do problema gde je četbot pod nazivom Replika sakupljao lične informacije maloletnika.

Sve ovo nam sugeriše da sledi period ,,jaza”, u pravnom smislu, gde se štetni uticaji AI tehnologije ne mogu predvideti unapred, već će se rešavati u hodu.

 

Da rezimiramo

Neosporiva je činjenica da će AI tehnologija imati drastičan uticaj na naš svakodnevni život.

Veštačka inteligencija sa sobom donosi do sada neviđen potencijal, ali sa druge strane, postoji i mnogo razloga za brigu.

Danas smo naveli samo neke od najvažnijih faktora rizika naglog tehnološkog napretka. Moramo upamtiti da razvoj AI pomagala eksponencijalno napreduje. A to znači ćemo se uskoro susresti sa novim prednostima, i novim problemima, koji će se rešavati u koraku.