Užice, RS
Mostly Cloudy
10h11h12h13h14h
7°C
9°C
11°C
12°C
13°C
Home Vesti ChatGPT i dijagnoza: Zašto veštačka inteligencija još uvek ne može da zameni lekara?

ChatGPT i dijagnoza: Zašto veštačka inteligencija još uvek ne može da zameni lekara?

by Ostoja Mirosavljevic
0 comments 9 views 6 minutes read

ChatGPT i dijagnoza

U vremenu kada se tehnologija nameće kao rešenje za brojne izazove savremenog života, oblast zdravstva posebno privlači pažnju. Prema podacima brojnih analitičkih izveštaja, globalno tržište AI u zdravstvu vrednuje se na preko 20 milijardi dolara, sa očekivanim godišnjim rastom od preko 40%. Upravo u tom kontekstu dolazi do izražaja nedavno istraživanje objavljeno u prestižnom časopisu “Nature Medicine”, koje je bacilo hladnu vodu na preterano optimistična očekivanja. Istraživanje sprovedeno na 1.300 ljudi u Ujedinjenom Kraljevstvu jasno pokazuje da nekoliko popularnih modela veštačke inteligencije – uključujući ChatGPT, LLaMA (Meta) i Command R+ – ne daje bolje rezultate od obične internet pretrage kada pacijent pokušava da razume svoje simptome. Ovo otkrivene postavlja ključno pitanje: da li je AI zaista spreman da udje u ordinaciju?

ChatGPT i dijagnoza

Metodologija istraživanja: Simulacija stvarnog sveta sa fiktivnim scenarijima

Da bismo razumeli značaj ovih nalaza, neophodno je da se osvrnemo na način na koji je istraživanje sprovedeno. Učesnici nisu bili stvarno bolesni, već su učestvovali u svojevrsnoj igri uloga. Istraživači su im podelili deset različitih skupova simptoma za koje u medicinskoj zajednici postoji konsenzus o pripadajućoj dijagnozi. Ova metodologija omogućila je kontrolisano testiranje sposobnosti AI alata da interpretiraju kliničke podatke bez rizika po stvarne pacijente. Međutim, upravo ovaj aspekt – rad sa fiktivnim, unapred definisanim scenarijima – predstavlja i jedno od ključnih ograničenja studije, jer stvarni pacijenti retko opisuju svoje tegobe tako precizno i strukturirano.

Rezultati koji iznenaduju: AI ne nadmašuje Google pretragu

Konačni rezultati istraživanja bili su više nego jasni. Samo je trećini učesnika pomoću alata veštačke inteligencije postavljena tačna dijagnoza. Ovaj rezultat nije bio ništa bolji od onog u kontrolnoj grupi, koja je za dijagnostikovanje koristila isključivo klasično pretraživanje interneta pomoću pretraživača kao što je Google. Ovakav ishod direktno dovodi u pitanje osnovnu premisu mnogih tehnoloških entuzijasta – da će napredni jezički modeli revolucionisati samodijagnostiku. Kao što je istakla Rebeka Pejn, istraživačica sa Univerziteta u Oksfordu i koautor studije, postoji “veliko uzbuđenje zbog modela veštačke inteligencije, ali oni jednostavno nisu spremni da zamene lekara”.

Paradoks uspeha: Zašto AI dobro polaže ispite, a loše dijagnostikuje?

Ovde se nameće jedan prividan paradoks. Brojna ranija istraživanja su pokazala da ChatGPT i slični modeli mogu izuzetno uspešno da polažu standardizovane medicinske ispite, čak i one na nivou specijalizacije. Kada su postavljeni u ulogu studenta medicine koji odgovara na pitanja sa višestrukim izborom, sistemi veštačke inteligencije pokazuju impresivno znanje. Međutim, novo istraživanje iz “Nature Medicine” otkriva da se situacija dramatično menja kada je reč o interakciji sa stvarnim ljudima. Ključna razlika leži u prirodi ulaznih podataka. Standardizovani testovi nude precizne, jasne i potpune informacije. Suprotno tome, pacijent u stvarnom svetu može biti neprecizan, zaboraviti ključne detalje, dati subjektivne opise ili svoje simptome pripisati pogrešnom uzroku.

Ova “nesavršenost” ljudske komunikacije predstavlja ogroman izazov za algoritme. AI modeli trenirani na ogromnim korpusima tekstualnih podataka očekuju određenu logičku koherentnost. Kada pacijent kaže “boli me stomak i imam vrućicu”, modelu mogu nedostajati kritični kontekstualni podaci kao što su tačna lokalizacija bola, njegov karakter, trajanje, prisustvo drugih simptoma ili lična medicinska istorija. Bez ovih podataka, koje iskusni lekar izvlači kroz ciljano ispitivanje, AI lako može da skrene na pogrešan trag.

Ljudski faktor: Najslabija karika u lancu AI dijagnostike?

Upravo je ljudski faktor, kako sa strane pacijenta tako i sa strane potencijalnog načina korišćenja alata, možda i najveći izazov. Istraživači ističu da pacijenti često “ne pružaju sve ključne elemente” kada opisuju svoje tegobe. Osim toga, postoji i pitanje “Garbage in, garbage out” principa – ako korisnik postavi loše formulisano pitanje ili potceni ozbiljnost simptoma, AI će generisati odgovor na osnovu tog nepotpunog ili netačnog uvoda. Za razliku od lekara, koji aktivno sluša, posmatra neverbalne znake i postavlja dodatna pitanja, trenutna generacija četbotova je uglavnom reaktivna.

Metod procene Tačnost dijagnoze Kontekst i ograničenja
AI Četbot (npr. ChatGPT-4) ~33% Testirano na fiktivnim, ali konsenzusnim scenarijima simptoma.
Klasična internet pretraga ~33% Korisnik samostalno interpretira rezultate pretrage.
Standardizovani medicinski ispit (za AI) Vrlo visoka (>85%) Struktuirana pitanja sa tačnim odgovorima, bez interakcije sa pacijentom.
Klinička procena lekara Varira, ali sistematično viša Uključuje anamnezu, fizikalni pregled, dijalošku interakciju i kliničko rasuđivanje.

Širi kontekst: Debata o ulozi AI u zdravstvenom informisanju

Ovo istraživanje nije izolovani slučaj, već deo šire i vrlo aktuelne rasprave o potencijalnom doprinosu veštačke inteligencije u obezbeđivanju medicinskih informacija. U mnogim zemljama širom sveta, uključujući i razvijene države, pacijenti se suočavaju sa dugim vremenima čekanja za pregled kod lekara specijaliste. U takvim situacijama, privlačna je ideja da se neki inicijalni smernice ili objašnjenja dobiju instant putem pametnog alata. Upravo zbog toga regulatorna tela intenzivno rade na proceni rizika i koristi. Na primer, u Francuskoj, Visoka uprava za zdravlje (HAS) najavila je da će se u skorije vreme detaljnije oglasiti o direktnoj upotrebi AI alata od strane pacijenata. Već krajem 2023. godine ova institucija je preliminarno procenila da bi ti alati mogli da pomognu zdravstvenim radnicima, ali samo pod uslovom da se koriste razumno i kao pomoćno sredstvo, a ne kao zamenik za kliničku procenu.

Etički i bezbedonosni rizici: Upozorenja stručnjaka za bioetiku

Nalazi istraživanja otvaraju i brojna etička pitanja. Dejvid Šo, stručnjak za bioetiku sa Univerziteta u Maštrihtu u Holandiji, komentarišući studije za agenciju AFP, ocenio je da je ovo “vrlo važno istraživanje koje naglašava da četbotovi predstavljaju stvarne medicinske rizike za širu javnost”. Glavni rizik leži u lažnom osećaju sigurnosti ili, suprotno, u nepotrebnoj anksioznosti koju može izazvati netačna ili pogrešno protumačena AI dijagnoza. Pacijent koji dobije verodostojno zvučeće, ali pogrešno objašnjenje svojih simptoma, može odložiti hitnu posetu lekaru, sa potencijalno teškim posledicama. Sa druge strane, preterano alarmantna dijagnoza može izazvati paniku i dovesti do nepotrebnih medicinskih pregleda, opterećujući time i pacijenta i zdravstveni sistem.

Tehnološki napredak i ograničenja studije: Da li su modeli već prestari?

Kritičari istraživanja, posebno iz tehnološkog sektora, mogu istaci da korišćeni modeli veštačke inteligencije u studiji – poput određenih verzija ChatGPT-a ili LLaMA-e – u međuvremenu mogu biti zamenjeni novijim i naprednijim verzijama. To je svakako validno zapažanje, jer brzina razvoja u ovoj oblasti je zapanjujuća. Novije generacije modelova poseduju veći kontekstni prozor, bolje razumevanje nijansi i mogućnost analize slika. Međutim, fundamentalni izazov ostaje: model i dalje zavisi od kvaliteta i potpunosti informacija koje mu da čovek. Dok AI ne bude sposoban da vodi dinamički, empatičan i probesljiv dijaloški intervju kao lekar, njegova dijagnostička sposobnost u realnim uslovima biće ograničena. Istraživanje iz “Nature Medicine” služi kao važan trezveni trenutak, podsećajući nas da je put ka pouzdanoj medicinskoj AI duži i kompleksniji od što se čini.

Budući pravci: AI kao asistent, a ne kao zamenik

Imajući u vidu sve navedeno, najrealniji i najodgovorniji pravac razvoja jeste pozicioniranje veštačke inteligencije kao moćnog asistenta lekara, a ne kao njegove zamene. AI alati već sada pokazuju ogroman potencijal u drugim oblastima medicine, kao što su analiza medicinskih snimaka (rendgen, MRI), pretraga ogromnih baza naučne literature za najnovije studije ili pomoć u administrativnim poslovima koji oduzimaju vreme lekarima. U dijagnostičkom procesu, AI bi mogao da pomogne lekaru tako što će generisati listu diferencijalnih dijagnoza na osnovu unetih podataka, podsetiti na retke bolesti koje je lako prevideti ili sumirati relevantnu istoriju pacijenta iz elektronskog zdravstvenog kartona. Na taj način, lekar bi koristio mašinsku snagu za obradu podataka, ali bi konačnu odluku, zasnovanu na kliničkom rasuđivanju, humanosti i iskustvu, i dalje donosio čovek. Ovaj model saradnje čoveka i mašine predstavlja najsigurniji i najkorisniji put napredka za dobrobit pacijenata.

Related Posts

Leave a Comment