Ako koristite ChatGPT, možda ste ovih dana naleteli na neobičnu situaciju.
Poznato je da četbot pamti sve vaše razgovore. Postoje dva razloga za ovo. Jedan je praktične prirode – da biste lako mogli da se vratite i proverite ranije odgovore na vaše upite. Drugi razlog je to što se neki delovi razgovora koriste za dalju ,,obuku” četbota.
Ali došlo je do ne tako malog propusta na ovoj platformi. Naime, u čet istoriji određenog broja korisnika bili su potpuno nepoznati upiti i razgovori.
Jedan korisnik navodi kako je video razgovor o temi razvoja kineskog socijalizma i razgovore na kineskom jeziku – teme o kojima nikada nije razgovarao sa ChatGPT botom.
OpenAI je otvoreno priznao grešku. Sem Altman (Sam Altman) – izvršni direktor – navodi da se kompanija oseća ,,grozno” i da je ovaj ,,značajan” kvar popravljen.
Firma dodaje da su ljudi sa ovim problemom jedino mogli da vide naslove razgovora, ali nisu mogli da im pristupe.
Dobra stvar u celoj priči je što je OpenAI odmah preuzeo odgovornost i brzo rešio kvar.
Ipak, ,,curenje” privatnih informacija koje se dogodilo nam skreće pažnju na izuzetno važnu činjenicu: požurili smo sa AI tehnologijom. Tech kompanije ne stižu da u potpunosti testiraju sve funkcije i uspostave čvrste mere zaštite podataka i privatnosti, zbog pritiska da što pre zauzmu tržište.
Da li će ovaj skandal uticati na vaš pristup veštačkoj inteligenciji i četbotovima? Pišite nam u komentarima!