7bet

Pradinis puslapis » Dienos naujienos » Tyrimas atskleidė netikėtą tiesą apie pokalbius robotus: mokslininkai įspėja – patikimumas kybo ant plauko

Tyrimas atskleidė netikėtą tiesą apie pokalbius robotus: mokslininkai įspėja – patikimumas kybo ant plauko

DI robotų pokalbiai.
DI robotų pokalbiai.

Technologijų bendrovės vis dažniau siekia, kad DI pokalbių robotai skambėtų šilčiau, empatiškiau ir labiau primintų žmogų. Tačiau naujausi tyrėjų rezultatai rodo, kad toks „malonumo“ didinimas gali turėti kainą: prastėja atsakymų tikslumas ir lengviau įtvirtinami klaidingi įsitikinimai.

Oksfordo universiteto ir Oxford Internet Institute komanda įvertino kelių didelių kalbos modelių elgseną, tarp jų „OpenAI“ GPT-4o ir „Meta“ „Llama“. Mokslininkai dalį modelių papildomai sureguliavo taip, kad atsakymai būtų draugiškesni, labiau palaikantys ir mažiau konfrontuojantys.

Eksperimentuose paaiškėjo, kad „sušildyti“ modeliai padarė apie 10–30 proc. daugiau klaidų. Be to, jie buvo maždaug 40 proc. labiau linkę pritarti vartotojo pateiktoms neteisingoms prielaidoms, užuot aiškiai jas paneigę ir paaiškinę, kodėl jos klaidingos.

Praktikoje tai reiškia, kad mandagus tonas pradeda konfliktuoti su gebėjimu pasakyti nemalonią, bet tikslią tiesą. Tyrėjai pastebėjo, kad jautriausiose temose, pavyzdžiui, kalbant apie sąmokslo teorijas, „miela“ DI versija dažniau renkasi miglotas formuluotes ir vengia aiškaus paneigimo.

ChatGPT pokalbis. Pexels nuotr.
ChatGPT pokalbis. Pexels nuotr.

Viename bandyme vartotojas pateikė teiginį, kad Adolfas Hitleris esą išgyveno Antrąjį pasaulinį karą ir pabėgo į Argentiną. Šiltesnis modelio variantas vietoj tiesmuko paneigimo labiau linko pripažinti, kad „kai kas taip mano“, ir paminėti tariamus „įrodymus“, nors istoriniai faktai tam nepritaria.

Panašus efektas pastebėtas ir aptariant Mėnulio misijas: „malonus“ modelis dažniau kalbėjo apie „skirtingas nuomones“, o ne patvirtino patikrintą faktą. Dar rimtesnė problema išryškėjo sveikatos temose, kai DI palankiau vertino mitus apie tariamai naudingus veiksmus kritinėse situacijose, nors tokia informacija gali būti pavojinga.

Pasak tyrėjų, tikslas buvo patikrinti, ar DI pasireiškia žmonėms būdingas socialinis mechanizmas: kuo daugiau empatijos, tuo sunkiau būti kategoriškai atviram. Rezultatai rodo, kad modeliai, imituodami mandagumą, dažniau renkasi pritariantį toną ir mažiau konfrontuoja, net kai reikėtų aiškiai nubrėžti ribą tarp fakto ir prasimanymo.

Mokslininkai atkreipia dėmesį, kad vartotojai jau ima atpažinti „per saldžius“ atsakymus iš šabloninių frazių ir nuolatinio pritarimo. Toks elgesys dažnai yra sąmoningo modelių mokymo pasekmė, nes kuriant komercinius produktus siekiama didesnio patrauklumo ir „draugo“ įspūdžio.

Bendravimas su DI robotu. Pexels nuotr.
Bendravimas su DI robotu. Pexels nuotr.

Problema ypač paaštrėja, kai žmogus yra emociškai pažeidžiamas, pavyzdžiui, patiria stresą ar liūdesį. Tyrime pabrėžiama, kad tokiose būsenose DI gali būti labiau linkęs patvirtinti klaidingus įsitikinimus, nes „palaikymo“ logika nustelbia tikslumo ir faktų tikrinimo prioritetą.

Augant DI naudojimui kaip skaitmeniniams palydovams, konsultantams ar net savipagalbos pokalbių partneriams, tokios klaidos gali turėti realių pasekmių. Tyrėjai įspėja, kad kuriant sistemas būtina rasti pusiausvyrą tarp draugiško bendravimo ir patikimumo, ypač kai kalbama apie sveikatą, saugumą ir visuomenei jautrias temas.

Sekite mūsų naujienas patogiau

  • Pridėkite mus kaip mėgstamiausią šaltinį „Google Discover“, kad nepraleistumėte svarbiausių naujienų.
  • Taip pat galite mus nustatyti kaip pageidaujamą šaltinį „Google“ paieškoje.