Šimtams milijonų žmonių vis dažniau kreipiantis patarimų į pokalbių robotus, buvo tik laiko klausimas, kada technologijų bendrovės pradės siūlyti specialiai sveikatos klausimams skirtas programas.
2026 m. sausį „OpenAI“ pristatė „ChatGPT Health“ – naują pokalbių roboto versiją, kuri, pasak bendrovės, gali analizuoti naudotojų medicininius įrašus, sveikatos programėlių bei išmaniųjų dėvimų įrenginių duomenis ir taip atsakyti į klausimus apie sveikatą bei mediciną.
Šiuo metu šia programa galima naudotis tik užsiregistravus į laukiančiųjų sąrašą. Konkurentė dirbtinio intelekto bendrovė „Anthropic“ panašias funkcijas siūlo daliai savo roboto „Claude“ naudotojų.
Abi bendrovės pabrėžia, kad jų programos – vadinamieji didieji kalbos modeliai – neatstoja profesionalios medicininės priežiūros ir neturėtų būti naudojamos ligoms diagnozuoti. Jos labiau tinka sudėtingiems tyrimų rezultatams apibendrinti ir paaiškinti, padėti pasirengti vizitui pas gydytoją ar įžvelgti svarbias sveikatos tendencijas, „paslėptas“ medicininiuose įrašuose ir programėlių rodikliuose.
Prieš pradedant pokalbį su dirbtiniu intelektu apie savo sveikatą, verta įvertinti kelis svarbius dalykus.
Pokalbių robotai gali pateikti labiau suasmenintą informaciją nei paieška internete
Dalis gydytojų ir tyrėjų, dirbusių su „ChatGPT Health“ ir panašiomis programomis, mano, kad tokie įrankiai yra žingsnis į priekį, palyginti su tuo, ką žmonės dažniausiai daro šiandien.
Dirbtinio intelekto platformos nėra tobulos – jos kartais „halicinuoja“, pateikia netikslią informaciją arba prastus patarimus. Vis dėlto jų generuojama informacija dažnai būna labiau suasmeninta ir konkretesnė nei ta, kurią pacientai paprastai randa atlikę bendrą paiešką internete.
„Alternatyva dažnai būna jokios pagalbos nebuvimas arba paciento spėliojimas“, – teigia medicinos technologijų ekspertas, Kalifornijos universiteto San Franciske profesorius dr. Robertas Wachteris. Pasak jo, atsakingai naudojami įrankiai gali padėti gauti naudingos informacijos.
Viena didžiausių šiuolaikinių pokalbių robotų stiprybių – gebėjimas atsakyti į klausimus atsižvelgiant į naudotojo medicininę istoriją: vartojamus vaistus, amžių, gydytojų pastabas ir kitus svarbius aspektus.
Net jei nesuteikiate dirbtiniam intelektui prieigos prie savo medicininių duomenų, Wachteris ir kiti ekspertai rekomenduoja klausimą pateikti kuo išsamiau – kuo daugiau reikšmingų detalių, tuo didesnė tikimybė gauti tikslesnį atsakymą.
Jei simptomai kelia nerimą, dirbtinis intelektas nėra tinkamas pasirinkimas
Wachteris ir kiti specialistai pabrėžia, kad yra situacijų, kai pokalbių roboto reikėtų atsisakyti ir nedelsiant kreiptis į medikus. Dusulys, krūtinės skausmas ar staigus, labai stiprus galvos skausmas gali būti ženklai, kad reikia skubios medicininės pagalbos.
Net ir mažiau skubiais atvejais pacientai ir gydytojai, pasitelkdami dirbtinį intelektą, turėtų išlaikyti sveiką skepticizmą, teigia Stenfordo universiteto medicinos mokyklos dekanas dr. Lloydas Minoras.
„Kalbant apie svarbius medicininius sprendimus, o neretai ir dėl mažesnių sprendimų, susijusių su jūsų sveikata, niekada nereikėtų remtis vien tik didžiojo kalbos modelio pateikta informacija“, – įspėja jis.
Prieš įkeldami sveikatos duomenis, įvertinkite privatumo rizikas
Daugelis dirbtinio intelekto pokalbių robotų privalumų atsiskleidžia tik tuomet, kai naudotojai pasidalija asmenine medicinine informacija. Tačiau svarbu suprasti: tai, ką pateikiate technologijų bendrovei, nebūtinai yra saugoma pagal JAV federalinį sveikatos duomenų privatumo reguliavimą, kuris įprastai taikomas jautriems medicininiams duomenims.
Šis teisės aktas, dažniausiai vadinamas HIPAA, numato baudas ir net laisvės atėmimo bausmes gydytojams, ligoninėms, draudikams ir kitoms sveikatos priežiūros įstaigoms, neteisėtai atskleidusioms medicininius įrašus. Tačiau jis netaikomas bendrovėms, kuriančioms dirbtinio intelekto pokalbių robotus.
„Kai žmogus įkelia savo medicininę kortelę į didįjį kalbos modelį, tai visiškai kas kita nei perduoti ją naujam gydytojui“, – pabrėžia Minoras. – „Vartotojai turi suprasti, kad taikomi visiškai skirtingi privatumo standartai.“
„OpenAI“ ir „Anthropic“ teigia, kad naudotojų sveikatos informacija laikoma atskirai nuo kitų duomenų ir jai taikomos papildomos privatumo apsaugos. Bendrovės nurodo, jog sveikatos duomenys nėra naudojami modeliams mokyti. Naudotojai turi patys duoti sutikimą dalintis tokia informacija ir bet kada gali šį susiejimą nutraukti.
Tyrimai rodo, kad pokalbių robotai vis dar klysta
Nors entuziazmo dėl dirbtinio intelekto netrūksta, nepriklausomi šios technologijos tyrimai vis dar yra ankstyvoje stadijoje. Ankstyvieji darbai rodo, kad tokios programos puikiai atlieka aukšto lygio medicininius testus, tačiau dažnai susiduria su sunkumais bendraudamos su realiais žmonėmis.
Oksfordo universiteto atliktas 1300 dalyvių tyrimas atskleidė, kad žmonės, naudodamiesi AI pokalbių robotais ir bandydami įvertinti hipotetines sveikatos būkles, nepriėmė geresnių sprendimų nei tie, kurie rėmėsi paieška internete arba savo nuojauta.
Tuo pat metu dirbtinio intelekto sistemos, gavusios aiškiai ir išsamiai aprašytus medicininius atvejus, teisingai nustatė pagrindinę sveikatos problemą 95 proc. atvejų.
„Pati diagnostika nebuvo problema“, – sako pagrindinis tyrimo autorius, Oksfordo interneto instituto mokslininkas Adamas Mahdi. – „Viskas ėmė strigti tuomet, kai atsirado reali sąveika su dalyviais.“
Mahdi ir jo komanda išskyrė kelias bendravimo problemas. Žmonės dažnai nepateikdavo pakankamai informacijos, kad pokalbių robotas galėtų teisingai atpažinti sveikatos sutrikimą. Kita vertus, AI neretai pateikdavo gerų ir klaidinančių patarimų mišinį, o naudotojams būdavo sunku atskirti, kas yra kas.
Šis 2024 m. atliktas tyrimas dar nevertino naujausių dirbtinio intelekto versijų ir naujų paslaugų, tokių kaip „ChatGPT Health“.
Antroji „AI nuomonė“ gali padėti, bet nepakeičia gydytojo
Galimybė užduoti papildomus klausimus ir „ištraukti“ iš naudotojų esmines detales – viena iš sričių, kur Wachteris mato didžiausią tobulėjimo potencialą.
„Manau, kad šie įrankiai taps tikrai geri tada, kai juose atsiras daugiau gydytojiško bendravimo – kai jie pradės labiau priminti gyvą dialogą su pacientu“, – svarsto jis.
Kol kas vienas iš būdų didinti pasitikėjimą gaunama informacija – pasitikrinti ją keliuose skirtinguose pokalbių robotuose, panašiai kaip prašant antros gydytojo nuomonės.
„Kartais tuos pačius duomenis įvedu į „ChatGPT“ ir į „Gemini“, – pasakoja Wachteris. – „Jei abu pateikia tą patį atsakymą, jaučiuosi šiek tiek labiau užtikrintas, kad tai teisinga informacija.“

