Pastaruoju metu vis daugiau žmonių medicininės pagalbos ieško ne pas gydytojus, o kreipiasi į dirbtinį intelektą (DI) – tokius pokalbių robotus kaip ChatGPT. Tačiau naujausias tyrimas rodo: aklas pasitikėjimas dirbtiniu intelektu, sprendžiant sveikatos klausimus, gali būti pavojinga. Sužinokite, kodėl dirbtinis intelektas kelia riziką.
Tyrimo esmė – kaip žmonės naudojasi dirbtiniu intelektu sveikatos klausimais
Tyrime dalyvavo apie 1300 Jungtinės Karalystės gyventojų. Jiems buvo pateikti medikų sukurti scenarijai, imituojantys realias situacijas: nuo lengvų nusiskundimų iki gyvybei pavojingų būklių. Dalyviai turėjo pasirinkti, ką daryti – stebėti, kreiptis į šeimos gydytoją ar skubiai vykti į ligoninę.
Tiriamieji naudojosi keliais pažangiais DI modeliais: ChatGPT su GPT-4o, Command R+ (Cohere) ir Llama 3 (Meta). Nors dirbtinis intelektas dažnai pateikė panašią į teisingą diagnozę informaciją, jis dažnai nuvertino situacijos rimtumą arba painiojo simptomus. Dėl to žmonės priimdavo netinkamus sprendimus.
„Tie, kurie naudojosi DI, nesugebėjo priimti geresnių sprendimų nei tie, kurie rėmėsi savo patirtimi ar informacijos paieška internete“, – komentuoja Mahdi.
Dirbtinis intelektas medicinoje: kur slypi problema?
Pasak tyrėjų, žmonės dažnai nepateikia visų svarbių detalių pokalbiui su DI, o atsakymai – painūs, turintys ir teisingos, ir klaidinančios informacijos. Be to, dabartiniai chatbotų vertinimo metodai neatsižvelgia į realų, žmogišką sąveikos sudėtingumą.

Technologijų gigantai vis tiek veržiasi į mediciną
Nepaisant rizikų, didžiosios IT įmonės vis aktyviau skverbiasi į medicinos sritį:
- Apple kuria išmanų asistentą, kuris padės stebėti miegą, mitybą ir fizinį aktyvumą.
- Amazon vysto įrankį, analizuojantį socialinius veiksnius, darančius įtaką sveikatai.
- Microsoft moko savo DI interpretuoti pacientų gydymo informaciją.
Tačiau medikų bendruomenėje vis dar nėra vieningos nuomonės. Pavyzdžiui, Amerikos medicinos asociacijarekomenduoja gydytojams nenaudoti ChatGPT klinikiniams sprendimams, o net pačios DI sistemų kūrėjai, tokie kaip OpenAI, perspėja, kad jų modeliai neturėtų būti naudojami diagnozėms nustatyti.
Dirbtinis intelektas, toks kaip ChatGPT, gali būti naudingas įrankis informacijos paieškai ar pirminiam orientavimuisi, tačiau jis nėra gydytojas ir negali pakeisti profesionalios medicininės konsultacijos. Vartotojai turi būti budrūs, kritiškai vertinti DI rekomendacijas ir atsakomybę už sveikatos sprendimus palikti kvalifikuotiems specialistams.
Šaltinis: https://techcrunch.com/
Nuotraukos asociatyvinės © Canva.