Verovatno je svako od vas bar jednom do sada tražio uslugu od veštačke inteligencije. Čet botova koji odgovaraju na upite ima sve više i više, ali nekako je ChatGPT i dalje ostao neka vrsta sinonima za veštačku inteligenciju i možda je najkorišćenija alatka tog tipa. Ipak, manji broj prosečnih korisnika zna šta ChatGPT suštinski predstavlja i kako radi.
U ovom sasvim kratkom tekstu probaću da na najkraći i najpopularniji način objasnim šta je veliki jezički model (LLM) i šta konkretno znači ChatGPT.
Veliki jezički model (Large Language Model, LLM) predstavlja izuzetno veliki transformer obučen na milijardama tokena, a koji je sposoban da razume i generiše koherentan tekst na više jezika i domena. Token inače predstavlja najmanju jedinicu teksta koju model obrađuje. Token može biti i reč, deo reči ili znak.
Neizbežni pojmovi kada je veštačka inteligencija u pitanju su i:
- Mašinsko učenje (Machine Learning, ML), koje predstavlja granu veštačke inteligencije u kojoj se algoritmi uče iz podataka umesto da budu eksplicitno programirani i tako poboljšavaju performanse u predviđanju ili klasifikaciji podataka,
- Duboko učenje (Deep Learning), koje predstavlja podskup ML-a koji koristi duboke (višeslojne) neuronske mreže za modelovanje veoma složenih obrazaca u tekstu, slikama, zvuku ili tabelarnim podacima.
U tom smislu, a radi lakšeg razumevanja, ChatGPT ćemo sada raščlaniti slovo po slovo, a to znači sledeće:
GPT ili Generative Pre-trained Transformer, doslovno možemo prevesti kao „generativni unapred (prethodno) obučeni transformator“.
“Generativni” znači da model ne „klasifikuje“ nego stvara (generiše) sadržaj, kao što su tekst, kod, slike, čak zvuk.
“Unapred obučeni” znači da pre nego što se primeni na konkretan zadatak, model se uči na ogromnom, raznovrsnom korpusu javno dostupnih podataka.
“Transformator” predstavlja arhitekturu zasnovanu na mehanizmu samopozornosti (self-attention); eliminiše rekurziju i omogućava paralelnu obradu nizova, a ovo stoji iza svih modernih LLM-ova.
Da postavimo sada, radi još lakšeg razumevanja stvari ovako: zamislite jednog univerzalnog poliglotu, koji prvo pročita kompletnu biblioteku celokupnog ljudskog znanja (pre-trening), a zatim ga zaposlite kao stručnog prevodioca i tumača tog znanja (fine-tuning). Kada takvoj sveznalici postavite pitanje, on crpi podatke iz svog znanja i formuliše originalan odgovor.
Razumevanje ovih osnovnih termina nije samo nekakva akademska vežba i bubanje pojmova, već praktična pismenost za svet u kome AI brzo prelazi iz data centara u svakodnevne poslovne procese. Ukoliko ih savladate, mnogo lakše ćete proceniti realne mogućnosti i ograničenja svake “pametne” platforme koja vam se ponudi.
Možemo slobodno reči da je GPT je zaista uneo revoluciju u veštačku inteligenciju jer je pokazao da jedna jedinstvena arhitektura, dobro “nahranjena” podacima, može da savlada gotovo sve zadatke koje je donedavno radio samo čovek.
Zato, lično smatram da će generativni unapred obučeni transformatori ostati stub AI-sistema bar narednu deceniju, a svaki praktičan IT profesionalac ili IT entuzijasta bi trebalo da razume osnovne principe, makar na nivou ovog kratkog i jednostavnog objašnjenja.