U svetu nauke, a posebno prirodnih nauka, objaviti rad u naučnom časopisu kao što su Nature, Science ili Cell, predstavlja vrhunac karijere za mnoge naučnike. To je zato što su navedeni časopisi tokom decenija publikovali samo ozbiljne naučne studije i rezultate istraživanja i što imaju izuzetno referentan tim urednika, recenzenata i saradnika, od kojih je svaki vrhunski autoritet u svojoj oblasti.U tom smislu, u časopisu Nature je nedavno objavljen rad iz oblasti upotrebe veštačke inteligencije u medicinske svrhe, pod nazivom Large language models encode clinical knowledge
Veliki jezički model koji je bio upotrebljen za dobijanje rezultata i upoređivanje je razvio Google, pod nazivom Med-PaLM. Ideja kojom su se vodili programeri nije da zameni živog lekara, već da pomogne u situacijama u kojima ljudi konsultuju različite veb sajtove, kada često dobiju sasvim uopštene i nekorisne odgovore. Med-PaLM je pretežmo obučavan na odgovorima lekara na postavljena pitanja pacijenata, a u njegovoj obuci je učestvovao tim vrhunskih lekara, inženjera i programera.
Ustanovljeno je da ovaj medicinski chat bot odgovara na veliki broj medicinskih pitanja sa čak 92,6% tačnosti. Ovo je bilo praktično jednako precizno u poređenju sa odgovorima koje je dao tim od devet doktora iz UK, SAD i Indije, koji su nezavidno odgovarali na upitnik sa istih 80 pitanja koja su postavljana i chat botu.
Ustanovljeno je takođe, da je Med-PaLM u 5,8% slučajeva dao odgovore koji bi potencijalno mogli biti rizik za pacijenta, ali ovde treba znati da je istovremeno stopa potencijalno štetnih odgovora koju je dalo devet anketiranih lekara, iznosila 6,5%. Dakle, veštaćka inteligencija se ovde čak pokazala kao nešto bolja.
Na žalost, da ne bude sve baš idealno, treba znati da kod Med-PaLM-a i dalje postoji rizik od halucinacija. Ovo u praksi znači da bi AI mogla da kreira odgovore bez argumenata koji stoje iza njih, a iz razloga koje inženjeri još uvek ne razumeju u potpunosti. Znamo, na primer, da i najpopularniji chat bot kao što je ChatGPT, ume da halucinira i daje iznenađujuće čudne odgovore koji na prvi pogled deluju logično, ali su u svojoj suštini potpuno pbesmisleni. Na žalost, za ovaj fenomen još uvek nema odgovora kako nastaje.
U tom smislu, profesor informacione tehnologije na Bat univerzitetu iz Engleske Džejms Davenport, izjavio je za DailyMail da "bavljenje medicinom nije samo odgovaranje na medicinska pitanja, već mnogo kompleksnije od toga. Da se radi isključivo o medicinskim pitanjima, ne bi nam bilo potrebno podučavanje u bolnicama, i lekarima ne bi bile potrebne godine obuke nakon akademskih kurseva.”
Naravno, ni jedna veštačka inteligencija ne može zameniti živog čoveka lekara, bar to neće biti moguće u skorije vreme, jer postoje još mnoge nedoumice i potencijalni problemi, pogotovo u tako osetljivoj i ozbiljnoj oblasti kao što je medicina, kada život pacijenta zavisi od procene i dijagnoze lekara. Sa druge strane i lekari greše, isto kao i AI.
Mislim da za sada definitivnog odgovora nema, a veliki rizik vidim u pogrešnoj proceni pacijenta koji je konsultovao AI, da li treba otići kod lekara, ili poslušati savet veštačke inteligencije. Ovo može dovesti do dve stvari: bolji scenario je da AI dà odgovor koji će pacijenta naterati da pod hitno ode kod lekara. U tom slučaju štete neće biti, jer bolje je preventivno proveriti nego biti u nedoumici. Sa druge strane, opasnost može biti odgovor veštačke inteligencije koji će pacijenta dovesti u zabludu i proizvesti kasno javljanje lekaru, ili još gore, pogrešno samolečenje.
PS. generalno govoreći, tematika veštačke inteligencije je toliko intrigantna, kompleksna i opširna, da se mogu napisati čitave knjige bez definitivnih odgovora. Zato ovaj tekst treba shvatiti kao lično viđenje jednog sasvim prosečnog poznavaoca i konzumenta IT tehnologije (koji se njom slučajno i bavi), a u tom smislu i veštačke inteligencije.