Dirbtinio intelekto (DI) pokalbių robotai, tokie kaip „ChatGPT“, tapo neatskiriama kasdienio gyvenimo dalimi: žmonės juos naudoja atsakymams į klausimus rasti, tekstams rengti, idėjoms generuoti ar net duomenims analizuoti.
Tačiau kuo aktyviau bendraujame su DI, tuo svarbiau prisiminti – tai nėra saugi vieta jūsų asmeninei ar konfidencialiai informacijai saugoti. Nors taikomi įvairūs apsaugos mechanizmai, vis dar išlieka reali duomenų nutekėjimo ir nekontroliuojamo jų panaudojimo rizika. Technologijos nuolat tobulėja, tačiau atsargumas vis dar būtinas.
„ChatGPT“ kasdien apdoroja maždaug 2,5 mlrd. užklausų. Net ir esant įdiegtoms apsaugos sistemoms, nėra garantijos, kad jūsų įvedami duomenys niekada nepateks į netinkamas rankas ar nebus panaudoti kitaip, nei tikėjotės.
Žemiau pateikiamos penkios informacijos rūšys, kurių niekada nederėtų atskleisti „ChatGPT“ ar bet kuriam kitam viešam „išmaniam“ pokalbių robotui.
Asmeniniai duomenys
Daugelis naudotojų, patys to nesuvokdami, įveda savo vardą, pavardę, namų adresą, dokumentų numerius, telefono numerius ar el. pašto adresus, pavyzdžiui, prašydami padėti parengti gyvenimo aprašymą. Toks elgesys gali turėti rimtų pasekmių, jei įvyktų duomenų nutekėjimas ar prie modelio duomenų bazės gautų prieigą kenkėjiški asmenys.
Net jei atrodo, kad pokalbių robotas atsako „kaip draugas“, visa įvesta informacija yra apdorojama sistema ir teoriškai gali būti panaudota kitaip, nei tikitės.
Finansinė informacija
„ChatGPT“ galima paprašyti patarti, kaip planuoti mėnesio biudžetą ar net padėti sudaryti pensijų kaupimo strategiją. Tačiau jokiu būdu nereikėtų į DI pokalbių robotą vesti konkrečių finansinių duomenų: sąskaitų numerių, kredito kortelių duomenų, prisijungimų prie elektroninės bankininkystės, išsamios investicijų ar mokesčių informacijos.
Ekspertai pabrėžia, kad kartą pateikus duomenis DI sistemai, naudotojas nebegali sužinoti, kas su jais vyksta toliau. Finansinės informacijos įvedimas gali sukurti rimtą riziką: nuo sukčiavimo schemų ir tapatybės vagystės iki fišingo (apgaulingo duomenų išviliojimo) atakų ar kenkėjiškų programų patekimo į jūsų įrenginius.

Medicininiai duomenys
Pagal naujausių apklausų duomenis, maždaug vienas iš šešių suaugusiųjų bent kartą per mėnesį kreipiasi į „ChatGPT“, prašydamas paaiškinti simptomus ar patarti dėl gydymo. Tarp jaunesnių naudotojų šis rodiklis dar didesnis – iki vieno iš keturių kartą per mėnesį.
Specialistai ragina tokią praktiką vertinti itin atsargiai ir nepamiršti, kad DI pokalbių robotas nėra gydytojas ir jokiu būdu negali pakeisti profesionalios medicininės konsultacijos. Kaip ir finansinių duomenų atveju, didžiausia problema ta, kad, pateikus tokią informaciją DI sistemai, neįmanoma atsekti, kaip ir kur ji vėliau naudojama ar saugoma.
Darbo ir verslo informacija
Dokumentai, ataskaitos, strategijos ir kita medžiaga, susijusi su įmone, klientais ar einamaisiais projektais, dažnai būna konfidenciali ir neskirta viešam platinimui. Todėl jų kopijuoti ir „kelti“ į viešą DI pokalbių robotą nereikėtų.
Dirbtinis intelektas gali atrodyti kaip labai patogus įrankis tekstams redaguoti, santraukoms rengti ar idėjoms generuoti, tačiau tokiu būdu netyčia galite atskleisti jautrią verslo informaciją, intelektinę nuosavybę ar komercines paslaptis. Tai gali sukelti tiek reputacinių, tiek finansinių nuostolių.
Bet kokie neteisėti prašymai
Tokios užklausos yra pavojingos ne tik dėl saugumo, bet ir dėl teisinių priežasčių. Klausimai apie tai, kaip įvykdyti nusikaltimą, užsiimti sukčiavimu, kenkti žmonėms ar manipuliuoti jais, gali lemti paslaugų blokavimą ir net teisinę atsakomybę.
Platformos privalo laikytis galiojančių įstatymų ir tam tikrais atvejais gali būti įpareigotos pateikti naudotojų duomenis teisėsaugos institucijoms.
„OpenAI“ vadovas Samas Altmanas yra įspėjęs, kad pokalbiai su „ChatGPT“ nėra saugomi taip, kaip, pavyzdžiui, paslaptys tarp kliento ir advokato ar gydytojo. Teismo proceso atveju kūrėjai gali būti įpareigoti perduoti naudotojo pokalbių išrašus pagal teismo sprendimą.
Dėl visų šių priežasčių visuomet elkitės atsargiai ir apgalvotai, kokią informaciją atskleidžiate DI sistemoms, ypač jei ji susijusi su jūsų asmeniniu gyvenimu, sveikata, finansais ar profesine veikla.
Ekspertai taip pat pažymi, kad, lyginant skirtingus pokalbių robotus, ne visi jie vienodai patikimi. Kai kurie modeliai pasižymi mažesniu vadinamųjų „haliucinacijų“ (neteisingų ar išgalvotų atsakymų) kiekiu, tačiau tai niekaip nepašalina būtinybės saugoti savo privatumą ir neatskleisti jautrių duomenų.
Šiuo metu „ChatGPT“ užima didžiąją pasaulinės pokalbių robotų rinkos dalį ir dominuoja kai kurių šalių rinkose. Vis dėlto populiarumas neturėtų tapti priežastimi aklai pasitikėti ir nepaisyti saugumo taisyklių.

