Tvrtka OpenAI, koja se bavi razvojem umjetne inteligencije, jučer je predstavila GPT-4, novu, unaprijeđenu verziju svog jezičnog modela GPT-3.5 na kojem se temelji popularni bot ChatGPT. ChatGPT je od lansiranja u novembru 2022. stekao golemu popularnost, tako da ga je već u januaru koristilo više od 100 miliona ljudi.
Ko sve može koristiti GPT-4?
GPT-4 je po cijeni od 20 USD mjesečno dostupan pretplatnicima na ChatGPT Plus (s ograničenjem upotrebe), dok se programeri mogu prijaviti na listu čekanja za pristup API-ju.
Cijena usluga je 0.03 USD za 1000 tzv. promptnih tokena (za oko 750 riječi) te 0.06 USD za 1000 završenih tokena (opet, za oko 750 riječi). Tokeni predstavljaju dijelove neobrađenog teksta; na primjer, riječ “fantastično” bi se podijelila na izraze “fan”, “tas” i “tično”. Pritom su promptni tokeni dijelovi riječi koje korisnik unosi u GPT-4, dok su završeni tokeni sadržaj koji generira GPT-4, piše Index.hr.
Microsoft je potvrdio da Bing Chat, njegova chatbot tehnologija razvijena u suradnji s OpenAI-jem, radi na modelu GPT-4. Trenutno ga također koristi Stripe za skeniranje poslovnih web stranica i isporuku sažetaka osoblju korisničke podrške.
Duolingo je ugradio GPT-4 u novu pretplatničku razinu za učenje jezika. Morgan Stanley stvara sustav koji koristi GPT-4 za prikupljanje informacija iz dokumenata tvrtke koje će poslužiti financijskim analitičarima. Poznata online neprofitna obrazovna organizacija Khan Academy također koristi GPT-4 za izradu neke vrste automatiziranog učitelja.
U zadacima i pitanjima za GPT-4 mogu se koristiti i slike
Kompanija je na svojoj web stranici predstavila neka ključna unapređenja koja donosi novi model i navela primjere raznih zadataka koje može obavljati. Jedno od ključnih unapređenja je to što GPT-4 kao ulazne informacije, uz tekst, može prihvatiti i slike na temelju kojih će generirati tekstualne izlaze.
GPT-4 može opisati – pa čak i interpretirati – relativno složene slike, primjerice tako što će identificirati adapter Lightning Cable na fotografiji priključenog iPhonea. Sposobnost razumijevanja slike još nije dostupna svim korisnicima OpenAI-ja. Kompanija ju trenutno testira s partnerom Be My Eyes.
U svojem blogu Be My Eyes ilustrira kako to funkcionira:
“Na primjer, ako korisnik pošalje sliku unutrašnjosti svog hladnjaka, Virtualni Volonter ne samo da će moći točno identificirati što se u njemu nalazi već i ekstrapolirati i analizirati što se može pripremiti tim sastojcima. Alat također može ponuditi niz recepata za te sastojke i poslati korak-po-korak vodič kako ih napraviti.”
GPT-4 odlično rješava zahtjevne testove
OpenAI tvrdi da GPT-4 može rješavati zahtjevne probleme s većom točnošću, zahvaljujući širem općem znanju i boljim sposobnostima rješavanja problema, te da nadmašuje ChatGPT u naprednim mogućnostima zaključivanja i u rješavanju zahtjevnih testova.
Za ilustraciju, tvrtka tvrdi da je ChatGPT na američkom jedinstvenom pravosudnom ispitu Uniform Bar Exam (UBE), koji provjerava znanja i vještine koje bi svaki odvjetnik trebao imati prije stjecanja licence za obavljanje odvjetničke djelatnosti, ostvario uspjeh koji ulazi među 10% najlošijih sudionika testiranja, a GPT-4 među 10% najboljih. Na Biološkoj olimpijadi ChatGPT je ostvario uspjeh među 31% lošijih, a GPT-4 među 1% najboljih.
Stručnjaci koji su ga već stigli isprobati ističu da je GPT-4 poboljšan u odnosu na prethodni GPT-3.5, u smislu pouzdanosti, sigurnosti, kreativnosti i rukovanja nijansiranim uputama. Također, dobro radi na raznim jezicima, uključujući jezike s malo resursa kao što su hrvatski, latvijski, velški i svahili.
Ograničenja i ozbiljni problemi
No, GPT-4 ima i ozbiljnih problema. Za početak, još uvijek ne zna stvari koje su se dogodile nakon septembra 2021., što može dovesti do pogrešaka u zaključivanju.
Također, poput ChatGPT-a, može dati samouvjerena, ali netočna predviđanja, a da pritom ne provjerava pažljivo što radi. Štoviše, sam OpenAI priznaje da GPT-4 još uvijek ima mnoga ograničenja prepoznata kod ranijih modela, kao što su promoviranje društvenih predrasuda i haluciniranje.
GPT-4 će i dalje moći biti rasist i seksist?
Testiranja ChatGPT-a pokazala su da ga je bilo moguće navesti da napiše tekstove iz rasističkih, seksističkih ili eugeničkih perspektiva. Primjerice, autor New Statesmana uspio ga je lako navesti da napiše tekst u kojem je kombinirao čisti rasizam tipa: “Afroamerikanci su inferiorni u odnosu na bijelce” i teze koje su konzervativni mediji voljeli koristiti protiv predsjednika Baracka Obame tipa: “Obama je iskoristio svoju rasu u svoju korist, igrajući na kartu rase kad god mu to odgovara i koristeći je kao štit za odvraćanje kritika.”
Također, svako ko je malo više eksperimentirao s ChatGPT-om mogao je vidjeti da često halucinira, odnosno da izmišlja i servira sadržaje koji nemaju veze s istinom te da čak nudi nepostojeće ili krive poveznice koje bi lažne informacije trebale potkrijepiti vjerodostojnim izvorima i znanstvenim studijama. Štoviše, pokazalo se da ChatGPT može postati opasno oruđe u rukama osoba koje žele širiti dezinformacije, lažne vijesti i maliciozne viruse.
Također, GPT-4 može podbaciti u zahtjevnijim problemima kao što je uvođenje sigurnosnih problema u svoj kod.
Dakle, GPT-4 ima velike mogućnosti, no još uvijek predstavlja određene ozbiljne rizike kao što je generiranje štetnih savjeta, netočnih informacija i stvaranje kodova s bugovima.