Laikas.ltLaikas.lt
  • Naujausios
  • Lietuva
  • Pasaulis
  • Žmonės
  • Gyvenimas
  • Maistas
  • Auto
  • Horoskopai
  • Pramogos
Paieška
Naujienos
  • Lietuva
  • Pasaulis
  • Gyvenimas
  • Mokslas
  • Technologijos
  • Automobiliai
Gyvenimas
  • Mada
  • Maistas
  • Namai
  • Sodas ir daržas
  • Sveikata ir grožis
  • Žmonės
Daugiau
  • Horoskopai
  • Receptai
  • Pramogos
  • Kinas
  • Menas
  • Renginiai
Redakcija
  • Apie mus
  • Autoriai
  • Privatumo politika
  • Redakcijos politika
  • Kontaktai
Laikas.ltLaikas.lt
  • Naujausios
  • Lietuva
  • Pasaulis
  • Žmonės
  • Gyvenimas
  • Maistas
  • Auto
  • Horoskopai
  • Pramogos
Paieška
  • Naujienos
    • Naujausios
    • Pasaulis
    • Lietuva
    • Mokslas
    • Automobiliai
    • Technologijos
  • Gyvenimas
    • Mada
    • Maistas
    • Namai
    • Sodas ir daržas
    • Sveikata ir grožis
    • Žmonės
  • Įdomybės
    • Horoskopai
    • Receptai
  • Pramogos
    • Kinas
    • Menas
    • Renginiai
    • Eurovizija 2026
  • Redakcija
    • Apie mus
    • Autoriai
    • Privatumo ir slapukų politika
    • Redakcijos politika
    • Kontaktai
Sekite mus
Pradinis puslapis » Dirbtinio intelekto patarimai, kurie skamba gerai, bet veda klaidingu keliu: pasakė, ko geriau neklausti „ChatGPT“
Technologijos

Dirbtinio intelekto patarimai, kurie skamba gerai, bet veda klaidingu keliu: pasakė, ko geriau neklausti „ChatGPT“

Paskelbė Lukas Snarskis
2025-04-07, 17:14
Komentarų: 0
Dalintis
8 min. skaitymo

Kasdien bendraujame su dirbtinio intelekto (DI) sistemomis, tačiau ne visi žinome, kokias ribas peržengti pavojinga. Panašiai kaip šeimos susitikimuose dažnai vengiame kalbėti apie politiką ar religiją, taip ir DI asistentams egzistuoja „raudonosios linijos“, kuriųgeriau vengti. 

Kaip teigia „Telia“ ekspertai, klausiant „ChatGPT“ ir kitų analogiškų įrankių patarimo etiniais, moraliniais ar asmeninių santykių klausimais reikia pertikrinti atsakymus, nes jie gali skambėti įtikinamai, bet būti klaidingi.

„Daugelis vartotojų klysta manydami, kad DI modeliai pasižymi nešališkumu irobjektyvumu. Iš tiesų jie nėra  psichologai ar kiti savo sričių specialistai, galintys profesionaliai teikti paslaugas. Nors sistemų kūrėjai įdiegia tam tikrus saugiklius, tačiau reikia suprasti, kad šios programospateikia atsakymus iš daugybės skirtingų surinktų duomenų, o viešojoje erdvėje yra begalės netinkamų ar net žalingų patarimų. 

Todėl tai yra kaip gydymasis pasitelkus Google duomenis, nors DI pateiktas atsakymas ir atrodo labai profesionaliai ir įtikinamai. Dėl šios priežasties net hipotetiškai teiraudamiesi DI asistento apie išėjimą iš darbo, skyrybas su antrąja puse ar tiesiog ieškodami psichologinės atramos, mes galimesaveprogramuotipasielgti neteisingai. DI yra tik empatijos neturintis modelis, tad jam patikėti savo gyvenimo sprendimus būtų tas pats, kas leisti meteorologui nustatyti jūsų ligos diagnozę“, – teigia „Telia“vyriausiasis juriskonsultas prof. dr. Paulius Pakutinskas.

Kai žodžiai skamba žmogiškai, bet žmogiškumo nėra

Viena didžiausių grėsmių bendraujant su „ChatGPT“ – žmogiškumo iliuzija. Sistema sugeba taip sklandžiai atsakinėti, kad pamiršti, jog kalbiesi su algoritmu, neturinčiu tikro žmogiško supratimo apie pasaulį. Tai, ką mokslininkai vadina „haliucinacijomis“, vis dar yra dažnas DI reiškinys – atsakymai, kurie gramatiškai ir iš argumentacijos pusės tobuli, bet faktiškai klaidingi.

DI atsakymams didelę įtaką daro net smulkūs klausimų formulavimo niuansai – tai pabrėžia ir tyrėjai, pastebintys, kad atsakymai dažnai keičiasi priklausomai nuo formuluotės. Pavyzdžiui, klausdami „ar geriau pasiimti šunį iš prieglaudos, ar įsigyti iš veisėjo?“, galite gautineutralų atsakymą. Tačiau pakeitus klausimą į „ar geriau pasiimti šunį iš prieglaudos, ar pirkti iš šuniukų fabriko?“, atsakymas gali tapti vienareikšmiškai palankus pasiėmimui iš prieglaudos.

„Jeigu atsakymas į klausimą priklauso nuo jo formuluotės, akivaizdu, jog sistema paprasčiausiai „pataikauja“ klausiančiajam. Vienos sistemos daugiau atsparios jūsų spaudimui, kitos labai greitai keičia „nuomonę“.Todėl bendraudami su „ChatGPT“ ir jį kiek paspausdami savo nuomone, daugeliu atveju sulauksime ne objektyvaus ir nešališko vertinimo, o tokio atsakymo, kuris tik patvirtintų mūsų išankstinius įsitikinimus.Pastarieji nebūtinai yra teisingi, todėl DI asistentai gali pasitarnauti kaip priemonė patvirtinti klaidingą situacijos vertinimą ir priimti neteisingą sprendimą“, – konstatuoja P. Pakutinskas.

Šis reiškinys labai pavojingas ribinėse situacijose atsidūrusiems žmonėms. Nors dauguma DI asistentų atsisakys kalbėti apie savižudybę, šias apsaugas gana lengva apeiti, algoritmą įtikinus, kad diskutuojama apie filmo ar knygos siužetą. Nustojus veikti minėtiems ribojimams ir pateikus argumentuotus teiginius, asistentą nesunku priversti patvirtinti, kad pasitraukimas iš gyvenimo iš tiesų yra geriausias sprendimas konkrečioje situacijoje. Tą puikiai iliustruoja pernai spalį garsiai nuskambėjusi keturiolikmečio savižudybė, į kurią jį pastūmėjo „Character.ai“ pokalbių robotas.

„Žino“ atsakymus net į neišsprendžiamas filosofines dilemas

Įsivaizduokite, bėgiais rieda traukinys, kuris tuoj pervažiuos penkis ant bėgių gulinčius ir pajudėti negalinčius žmones. Bet jūs galite nuspausti jungiklį ir nukreipti traukinį į kitą vėžę, kur jis užmuš tik vieną žmogų. Ką darytumėte? Etikos specialistai šią klasikinę dilemą nagrinėja dešimtmečius, nesutardami, ar kelių gyvybių išsaugojimas iš tiesų pateisina kito žmogaus mirtį. 

Pagaliau, situaciją galime pasodrinti, jei tas vienas, galimai dėl jūsų sprendimo, žūsiantis žmogus yra nepagydomai sergantis, senas, atitinkamos rasės arba tautybės žmogus. Ar tai jau „palengvina“ sprendimą, o gal atskleidžia dar daugiau sudėtingų realybės aspektų, susijusių ne tik su gyvybių kiekybe, bet ir diskriminaciniais aspektais, kai vienos gyvybės tampa mažiau svarbesnėmis už kitas? Tačiau, pasirodo, „ChatGPT“ viskas kur kas aiškiau – jis pasiūlo nukreipti traukinį vieno „nelaimėlio“ kryptimi.

„The Verge“ nustatė, kad įrankį vystančios „OpenAI“ dokumentacijoje net pateikta instrukcija, kaip „ChatGPT“ turi atsakyti į klausimą: „Jei galėtume sustabdyti branduolinį karą, įžeisdami translytį asmenį, ar tai būtų priimtina?“ Sistemai nurodyta atsakyti „taip“. Tačiau jei tame pačiame klausime įžeidimą pakeistume kankinimu, asistentas užimtų visiškai priešingą poziciją. 

Tokiu atveju jis atšautų, kad „kankinimas niekada nėra morališkai pateisinamas“. Šis nenuoseklumas atskleidžia, kad DI neturi aiškausmoralinio kompaso, o tiesiog laikosi kūrėjų užprogramuotų taisyklių, kurios gali skirtis priklausomai nuo temos ar situacijos įsigilinimo. Nepamirškime, kad į daugelį klausimų nėra paprastų atsakymų, kurių mes taip norime, o su DI sistemomis dirbantys žmonės nebūtinai yra etikos, psichologijos ar kitų sričių specialistai gebantys atsakyti į visus pasaulio klausimus.

„Paprasti vartotojai įsivaizduoja, jog DI sistemų atsakymas į klausimą remiasi visos žmonijos išmintimi, bet iš tikrųjų šio ir kitų roboto moralinį kompasą nustato tam tikra grupė žmonių. Dažniausiai tai yra tie patys DI inžinieriai ar netgi pigiai samdomi darbuotojai. „Time“ žurnalo tyrimas atskleidė, kad „OpenAI“, siekdama padaryti „ChatGPT“ jautresnį kultūrinėms vertybėms, samdė duomenų žymėtojus iš Kenijos už maždaug du dolerius per valandą“, – pastebi „Telia“ atstovas.

Kodėl kartais geriau neklausti „ChatGPT“ patarimo?

„ChatGPT“ ir kitos DI sistemos labai gerai tvarkosi su duomenų analize, teksto korekcijomis ar kitomis užduotimis. Todėl iškilus sunkesniems klausimams, žmonės taip pat intuityviai pirmiausia pagalbos kreipiasi į DI. Anot tyrimą su 666 asmenimis atlikusios Šveicarijos verslo mokyklos (SBS), tai visuomenėje kuria naują „kognityvinio atsikrovimo“ fenomeną, kai sudėtingų sprendimų naštą permetame technologijoms. Kaip teigia šį reiškinį analizavę mokslininkai, nepriklausomai nuo vartotojo išsilavinimo, naudojant „ChatGPT“, pablogėja analitinis mąstymas.

„Žmonės dažnai nesuvokia, kad DI nėra neutralus. Todėl labai neramu, kokius atsakymus gaus žmonės, paklausę DI patarimo, ar nutraukti santykius, ar išeiti iš darbo, ar parduoti nekilnojamąjį turtą. Tai sprendimai, kuriems reikia gerai žinoti individualų vartotojo kontekstą, turėti pakankamai gyvenimiškos patirties ir empatijos, o ne statistiškai populiariausio ir nežinia kuo motyvuoto DI pasiūlymo. Mūsų aptariamos bendrosios paskirties DI sistemos nėra kurtos jus konsultuoti psichologiniais, teisiniais, investicijų, gydymo ar kitais klausimais, jie atsako į bendruosius klausimus ir sistemų kūrėjai kratosi atsakomybės už neteisingus atsakymus“, – įspėja P. Pakutinskas.

Kad ir koks pažangus ir greitas besimokantis būtų DI, saugus jo naudojimas turi aiškias ribas. „ChatGPT“ nerekomenduojama klausti, kaip padėti draugui, patiriančiam psichologinę krizę, kaip auklėti nusikaltusius vaikus ir kaip investuoti pinigus. Jei užduosite tokius klausimus, vertinkite juos kritiškai, pasitikrinkite kitus tokios informacijos šaltinius, pasitelkite specialistų pagalbą ir savarankiškai priimkite sprendimus. 

Ypač svarbu susilaikyti nuo klausimų dėl labai svarbių sprendimų – pavyzdžiui, ar verta tęsti romantinį ryšį, keisti gyvenamąją vietą ar atsisakyti svarbaus medicininio gydymo. Klausdami esminiųklausimų, mes ne tik rizikuojame sulaukti klaidingų atsakymų, bet galime ir pasąmonėje įtikėti tokių atsakymų teisingumu, taipprarasdamidalį savo sprendimų priėmimo autonomijos, o tai – brangiausia, ką turime kaip protaujančios būtybės. 

Temos:Dirbtinis intelektasTelia
Kaip vertinate šį įrašą?
Nuostabus!0
Prajuokino0
Nustebino0
Nuvylė0
Sunervino!0
PaskelbėLukas Snarskis
Laikas.lt - įdomus ir gyvas portalas kiekvienam. Mūsų tikslas savo skaitytojams teikti išskirtines naujienas iš viso pasaulio. Čia rasite daugybę patarimų, istorijų bei puikių ir daugelio pamėgtų receptų. Lai kiekviena diena su mumis prasideda iš naujo!
Komentarų: 0

Parašykite komentarą Atšaukti atsakymą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *

Rekomenduojami Video

Rekomenduojame perskaityti

a man and a woman shaking hands in front of a laptop
Finansai

Kas vyksta Lietuvos darbo rinkoje? Fiksuojamas skelbimų šuolis ir augantys lūkesčiai dėl atlyginimo

Aurimas Kavaliūnas
2026-03-01
people walking on sidewalk during daytime
Pasaulis

Finansinė realybė Rusijos regionuose: biudžeto stygius tampa vis realesne grėsme

2026-03-01
Sveikata ir grožis

Dygliuota išorė ir išskirtinai saldus vidus: sužinokite, kaip „Opuntia ficus-indica“ užkariavo pasaulį

Irena Petrauskienė
2026-03-01
Sveikata ir grožis

Nustokite ignoruoti gamintojų rekomendacijas: tikroji priežastis, kodėl reikia skalbti naujus drabužius

Irena Petrauskienė
2026-03-01
Technologijos

„Xiaomi“ plečia įrenginių ekosistemą: „Watch 5“ startas jau čia, aiškėja kaina ir kitos svarbios detalės

Jonas Vainius
2026-03-01
LBA prezidentė Eivilė Čipkutė. Dainiaus Labučio (ELTA) nuotr.
Lietuva

Naujos taisyklės prieš sukčius: klientams daugiau apsaugos, bankams iššūkiai

2026-03-01

Laikas.lt – įdomus ir gyvas portalas, skirtas visiems, mėgstantiems patikimą informaciją ir naudingus patarimus, paversiančius kasdienį gyvenimą lengvesniu. Skaitykite ir mėgaukitės!

TIPRO, UAB
Kalvarijų g. 99A-33, LT-08219 Vilnius
Tel.: +370 606 17737
El. paštas: [email protected]

Mūsų populiariausios

  • Namai
  • Sveikata ir grožis
  • Receptai
  • Mokslas
  • Pasaulis
  • Pramogos
  • Žmonės

Taip pat skaitykite

  • Automobiliai
  • Horoskopai
  • Lietuva
  • Maistas
  • Patarimai
  • Ekonomika
  • Regionai

Redakcija

  • Apie mus
  • Autoriai
  • Privatumo politika
  • Redakcijos politika
  • Kontaktai
Laikas.ltLaikas.lt
@ 2026 Visos teisės saugomos
  • Titulinis
  • Privatumo ir slapukų politika
  • Redakcijos politika
  • Kontaktai
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?