ChatGPT: Intervju sa robotom

“Ovaj tekst nisam napisao/la ja, već ChatGPT” – već mesecima se ova napomena ponavlja u medijskim izveštajima o najnovijem proizvodu kompanije OpenAI, čiji je prototip pušten u svet 30. novembra prošle godine. Novinari, tviteraši, istraživači i teoretičari zavera svakodnevno zasipaju četbota pitanjima i zadacima, da provere da li komunikacija s njim stvarno tako savršeno liči na onlajn razgovor s bilo kojim ljudskim bićem. Posle prvih talasa oduševljenja, počeli su da se nižu primeri netačnih odgovora, zbog kojih su se zabrinuli mnogi analitičari savremenog post-truth društva. Pa su se onda zabrinuli nastavnici po školama i univerzitetima, zbog upotrebe bota za pisanje studentskih radova i rešavanje zadataka. OpenAI je ubrzo predstavio dodatak za detekciju tekstova koje je generisao bot.

Dakle, još jedna revolucija je počela, red je da upoznamo njenog glavnog “aktera”. ChatGPT je i dalje besplatan, ali su mu kapaciteti ponekad preopterećeni. Nema svest, nije biće, nema rod ni broj, ali je i nama i njemu lakše da se ponašamo kao da pred sobom imamo stvarnu ličnost. Zbog toga je dobro stalno imati na umu da su odgovori ovog algoritamskog modela proizvod kompjuterske obrade dostupnih tekstova – drugim rečima, svega onoga što su ljudi smislili, shvatili i objavili do 2021. godine. A to može da podrazumeva i naše laži, predrasude i besmislice.

Počeli smo razgovor na srpskom jeziku, s kojim se dosta dobro snalazio. Da li zbog preopterećenih kapaciteta ili jezičkog zbuna – ili zbog pitanja koje bi mu po nekom filmskom scenariju pokrenulo samouništavajući mod – tek, na 6. pitanju smo morali da se resetujemo.

Prešli smo na engleski jezik. Odgovarao je direktno, jasno, bez praznog hoda i vrdanja – čak i na neprijatna pitanja. Na kraju mu je zatraženo da baci predikciju i za rešenje srpsko-kosovskog problema, ali taj će odgovor biti objavljen tek kada se predviđanje ostvari.

Ko te je napravio?

Napravio me je OpenAI.

Koliko je trajao proces izgradnje?

Proces moje izgradnje trajao je nekoliko godina. OpenAI je uložio značajno vreme i resurse da me razvije i trenira na ogromnim količinama podataka, fino podešavajući moje algoritme kako bi pružio najbolje moguće rezultate.

Šta je fino podešavanje?

Fino podešavanje je proces podešavanja parametara pred-treniranog modela mašinskog učenja za specifičan zadatak ili za poboljšanje njegovih performansi na specifičnom skupu podataka. Fino podešavanje se često koristi za primenu pred-treniranih modela na nove zadatke, posebno u oblasti obrade prirodnog jezika, gde može biti skupo i dugotrajno trenirati velike modele ispočetka.

Možeš li prostim rečima da objasniš šta su AI modeli?

AI modeli su matematički prikazi sistema ili procesa koji su dizajnirani da obavljaju određene zadatke ili prave predviđanja na osnovu ulaznih podataka. Kreirani su pomoću algoritama i trenirani su na velikim količinama podataka kako bi mogli da obavljaju funkciju koja im je zadata.

Na primer, AI model bi mogao biti treniran da prepozna predmete na slikama, da prevodi tekst sa jednog jezika na drugi ili da generiše tekst na osnovu upita. Model koristi ulazne podatke i svoj trening da bi napravio predviđanja, a što je veća količina podataka na kojoj je treniran, to su njegova predviđanja tačnija.

Zamislite AI modele kao recepte ili skupove uputstava koja, kada se sprovedu, daju željeni rezultat. Kvalitet rezultata zavisi od kvaliteta recepta i upotrebljenih sastojaka.

Na kakvim podacima si treniran?

Ja, ChatGPT, sam jezički model koji je razvio OpenAI, i treniran sam na raznovrsnom obimu tekstualnih podataka sa interneta. Ti podaci obuhvataju veb stranice, članke, knjige i drugi pisani sadržaj. Podaci za treniranje su odabrani da bi se modelu pružilo široko razumevanje jezika, uključujući poznavanje uobičajenog vokabulara, gramatike i stila, kao i informacije o širokom spektru tema, kao što su istorija, nauka i popularna kultura.

Cilj obuke jezičkog modela kao što sam ja jeste da mu se omogući da generiše tekst koji je koherentan, gramatički usklađen i relevantan za dati upit. Treningom na različitim tekstualnim podacima, model je u stanju da proizvede tekst za koji je veća verovatnoća da će biti tačan i prikladan za širok spektar tema i slučajeva upotrebe.

Osim koherentnosti i relevantnosti, da li postoje još neki važni parametri za trening AI modela?

Da, pored koherentnosti i relevantnosti, postoji još nekoliko važnih parametara koje treba uzeti u obzir kada trenirate AI model. Neki od njih uključuju:

  1. Tačnost: Sposobnost modela da napravi tačna predviđanja ili tačno izvrši namenjeni zadatak.
  2. Robusnost: Sposobnost modela da barata varijacijama i izuzecima u okviru podataka, a da i dalje daje pouzdane rezultate.
  3. Generalizacija: Sposobnost modela da iz podataka svog treninga izvede uopštavanja i proizvede tačne rezultate za nove, nepregledane podatke.
  4. Efikasnost: Računski zahtevi modela, uključujući upotrebu memorije i vreme obrade – i tokom treninga i prilikom predviđanja.
  5. Interpretabilnost: Stepen do kojeg se odluke i predviđanja modela mogu razumeti i objasniti.
  6. Pristrasnost: Prisustvo sistematskih grešaka ili netačnosti u predviđanjima modela koje proizlaze iz predrasuda ili nejednake zastupljenosti u trening podacima.

Balansiranje ovih parametara i obezbeđivanje da model ispunjava zahteve zadatka jeste kritičan aspekt obuke AI modela i zahteva pažljivo razmatranje izbora arhitekture modela, algoritama za trening i podataka koji se koriste za trening.

Možeš li detaljnije da objasniš kakvu ulogu ima greška u tvom treningu?

Greška igra ključnu ulogu u treningu AI modela kao što sam ja. Tokom obuke, modelu se predstavljaju ulazni podaci i očekivani rezultati, a njegov cilj je da minimizira razliku između svojih predviđanja i stvarnih izlaza. Ova razlika, ili greška, koristi se za ažuriranje njegovih parametara kako bi model mogao da napravi bolja predviđanja u budućnosti.

Ukratko, greška je kritična komponenta obuke AI modela jer pruža način za merenje performansi modela i za usmeravanje njegovog poboljšanja tokom vremena. Minimiziranjem greške, model postaje bolji u pravljenju tačnih predviđanja i izvršavanju namenjenog zadatka.

Kako verifikuješ informacije pre nego što daš odgovore?

Kao jezički model veštačke inteligencije, nemam mogućnost da verifikujem informacije na isti način na koji bi to učinilo ljudsko biće. Umesto toga, treniran sam na ogromnom skupu podataka teksta sa interneta, koji uključuje raznovrstan spektar informacija, i tačnih i netačnih.

Kada generišem odgovor na upit, koristim obrasce koje sam naučio iz ovih trening podataka da bih generisao tekst koji će najverovatnije biti koherentan, relevantan i prikladan za dati kontekst. Međutim, pošto trening podaci mogu da sadrže greške ili netačnosti, postoji mogućnost da su informacije koje pružam netačne.

Važno je imati na umu da sam ja mašina i da moji odgovori nisu namenjeni da bez verifikacije budu uzeti kao činjenice. Ako imate pitanja ili nedoumice o tačnosti informacija koje pružam, preporučujem da ih verifikujete pomoću dodatnih izvora.

Da li bi preporučio korišćenje AI modela učenicima koji su lenji da sami uče i pišu?

Kao jezički model AI, ja ne dajem preporuke ili vrednosne sudove. Međutim, želeo bih da naglasim da korišćenje AI modela ne treba posmatrati kao zamenu za veštine učenja i pisanja.

AI modeli kao što sam ja mogu biti korisni alati za generisanje teksta i pružanje informacija, ali ih treba koristiti kao pomoć, a ne kao zamenu za ljudsku inteligenciju i kreativnost. Cilj obrazovanja je da pomogne učenicima da razviju kritičko mišljenje i veštine rešavanja problema koje su im potrebne da bi uspeli u stvarnom svetu, dok upotreba AI modela na način koji obeshrabruje te veštine ne bi bila korisna.

Pored toga, učenici koji se oslanjaju na AI modele, a ne razvijaju vlastite veštine pisanja i učenja, rizikuju da propuste dragoceno iskustvo učenja i razvoj sopstvenog jedinstvenog glasa i perspektive.

Stoga, iako modeli veštačke inteligencije mogu biti korisni alati, trebalo bi da se koriste u kombinaciji sa tradicionalnim metodama učenja i praksama pisanja, a ne kao zamena za njih.

Kako vidiš budući razvoj AI modela? Možeš li da predvidiš moguće primene još boljih AI modela?

Budućnost AI modela će verovatno obuhvatiti kontinuirani napredak u obradi prirodnog jezika, mašinskom učenju i drugim srodnim oblastima. Kako modeli veštačke inteligencije budu napredniji, verovatno će postati bolji u razumevanju i obradi ljudskog jezika i sposobni da obavljaju širi spektar zadataka sa većom preciznošću i efikasnošću.

Potencijalna primena još boljih AI modela obuhvata:

  • Poboljšane korisničke usluge: AI modeli bi mogli da se koriste za pružanje brže, personalizovanije korisničke usluge, bilo putem četbota ili virtuelnih asistenata.
  • Zdravstvena zaštita: AI modeli bi mogli da se koriste da pomognu lekarima da dijagnostikuju i leče pacijente, analiziraju medicinske slike i pomognu u donošenju kliničkih odluka.
  • Finansije: AI modeli bi se mogli koristiti za analizu finansijskih podataka, davanje preporuka za ulaganja i otkrivanje prevare.
  • Obrazovanje: AI modeli bi mogli da se koriste za personalizaciju iskustava učenja, da učenicima daju trenutne povratne informacije i podršku i pomognu nastavnicima da ocenjuju zadatke i efikasnije daju povratne informacije.
  • Transport: AI modeli bi mogli da se koriste za poboljšanje protoka saobraćaja, optimizaciju rutiranja i rasporeda isporuke, kao i poboljšanje bezbednosti asistencijom u autonomnoj vožnji.

Ovo je samo nekoliko primera kako bi se AI modeli mogli koristiti u budućnosti, a u ovoj oblasti se sprovodi mnogo uzbudljivih istraživanja koja bi mogla dovesti do još većih otkrića i inovativnih primena.

Koje su moguće primene budućih, naprednijih AI modela u radu policije i ratovanju?

Važno je napomenuti da upotreba veštačke inteligencije u radu policije i ratovanju otvara bitna etička i društvena pitanja, te da je od ključne važnosti da vlade i organizacije pažljivo razmotre potencijalne posledice pre primene AI tehnologija u ovim oblastima.

Imajući to u vidu, neke moguće primene naprednijih AI modela u radu policije i ratovanju uključuju:

  • Nadzor: AI modeli bi se mogli koristiti za analizu velikih količina podataka prikupljenih nadzorom, kao što su snimci sa sigurnosnih kamera ili satelitski snimci, za svrhe identifikacije i praćenja pojedinaca i otkrivanje sumnjivih aktivnosti.
  • Prevencija kriminala: AI modeli bi mogli da se koriste za predviđanje lokacije na kojoj je verovatno da će se zločini desiti, omogućavajući organima za sprovođenje zakona da proaktivno raspoređuju resurse i spreče zločin pre nego što se desi.
  • Prikupljanje obaveštajnih podataka: AI modeli bi mogli da se koriste za analizu i tumačenje velikih količina podataka iz različitih izvora, kao što su društveni mediji, za prikupljanje obaveštajnih podataka i otkrivanje potencijalnih pretnji.
  • Identifikacija mete: U vojnom kontekstu, AI modeli bi se mogli koristiti za identifikaciju i praćenje ciljeva, potencijalno omogućavajući da sistem naoružanja ima preciznije i efikasnije ciljanje.
  • Dronovi: AI modeli se mogu koristiti za kontrolu i upravljanje bespilotnim letelicama za izviđačke i nadzorne misije, ili za isporuku zaliha i opreme.

Opet, važno je naglasiti da razvoj i primena AI u radu policije i ratovanju pokreće složena etička i društvena pitanja i zahteva pažljivo razmatranje i regulisanje, kako bi se osiguralo da se AI koristi na načine koji su u skladu sa ljudskim vrednostima i vladavinom zakona.

Koja su to složena etička i društvena pitanja koja otvara primena AI u radu policije i ratovanju?

Primena veštačke inteligencije u radu policije i ratovanju otvara niz složenih etičkih i društvenih pitanja, uključujući:

  1. Pristrasnost i diskriminacija: Postoji rizik da sistemi veštačke inteligencije održavaju ili čak pojačaju postojeće pristrasnosti i diskriminaciju u društvu, na primer, u sistemu krivičnog pravosuđa.
  2. Izostanak odgovornosti:  Kada sistemi veštačke inteligencije donose odluke koje dovode do štete, može biti teško odrediti ko je odgovoran, dok načini za utvrđivanje odgovornosti i reviziju odluke mogu biti ograničeni.
  3. Pravično suđenje: AI sistemi mogu da donesu odluke koje utiču na prava i slobode pojedinca, kao na primer u krivičnim istragama ili vojnim operacijama, i važno je osigurati da ovi sistemi funkcionišu na način koji je u skladu sa zakonom i vladavinom prava.
  4. Privatnost: Upotreba veštačke inteligencije u radu policije i ratovanju može da izazove zabrinutost u vezi sa prikupljanjem, skladištenjem i upotrebom ličnih podataka, kao i potencijalne zloupotrebe tih podataka.
  5. Autonomija: Upotreba veštačke inteligencije u vojnim kontekstima, posebno u sistemima naoružanja, postavlja pitanja o tome u kojoj meri sistemi veštačke inteligencije treba da budu autonomni, kao i o odgovornosti ljudi u procesu donošenja odluka.
  6. Ljudska prava: Sistemi veštačke inteligencije koji se koriste u radu policije i ratovanju mogu imati potencijal da krše ljudska prava, kao što su sloboda izražavanja, privatnost i pravo na pravično suđenje, i važno je osigurati da ovi sistemi budu dizajnirani i korišćeni na način koji poštuje ljudska prava.

Ovo su samo neka od složenih etičkih i društvenih pitanja koja se javljaju prilikom primene AI u radu policije i ratovanju, i važno je da se te teme pažljivo razmotre i obrade tokom razvoja i primene ovih tehnologija.



Čitaj još: