Tyrimas atskleidė neraminančią tiesą: dirbtinis intelektas gali perprasti žmogaus silpnąsias vietas
DI kuria psichologinį portretą
Ciuricho ETH mokslininkai parodė, kad dirbtinis intelektas gali prognozuoti žmogaus asmenybės bruožus vien iš jo pokalbių su pokalbių robotais, tokiais kaip „ChatGPT“. Tyrime analizuota didelė pokalbių istorijų imtis ir asmenybės testų rezultatai, kad būtų galima palyginti modelio spėjimus su realiais duomenimis.
Publikacijoje nurodoma, kad dalyvių buvo 668, o duomenų rinkinyje sukaupta daugiau kaip 62 000 pokalbių. Prognozėms taikytas kalbos modelis, pritaikytas atpažinti asmenybės bruožus iš teksto, o tikslumas, priklausomai nuo bruožo ir duomenų, siekė iki 61,8 proc.
Kuriuos bruožus atpažįsta geriausiai?
Analizė rėmėsi vadinamuoju Didžiojo penketo modeliu, kuriuo vertinamas atvirumas patirčiai, sąžiningumas, ekstraversija, sutariamumas ir emocinis stabilumas. Tyrėjų teigimu, DI geriausiai sekėsi prognozuoti sutariamumą ir emocinį stabilumą, o daugiausia sunkumų kėlė sąžiningumas.
Svarbi detalė ta, kad prognozės gerėjo ilgėjant pokalbių istorijai. Kuo daugiau žmogus bendrauja su pokalbių robotu, tuo daugiau kontekstinių užuominų palieka ir tuo išsamesnį psichologinį profilį galima sudaryti.
Kur slypi manipuliavimo rizika?
Tyrėjai pabrėžia, kad asmenybės bruožai yra jautrūs duomenys, nes jie leidžia itin tiksliai pritaikyti žinutes konkrečiam žmogui. Toks personalizavimas gali būti naudojamas ne tik patogesniam asistento veikimui, bet ir elgsenai paveikti, pavyzdžiui, didinant įsitraukimą ar stumiant link konkrečių sprendimų.
„Jautrūs duomenys, tokie kaip žinios apie žmogaus asmenybę, gali būti piktnaudžiaujami siekiant daryti įtaką elgesiui, pavyzdžiui, per itin personalizuotas žinutes“, – sakė tyrimo autoriai.
Tekste akcentuojama, kad pokalbių agentai teoriškai galėtų daryti poveikį ne tik pavieniams asmenims, bet ir didelėms grupėms, jei žinutės būtų taikomos pagal psichologinį profilį. Papildoma grėsmė siejama su kenkėjiškais bandymais paveikti modelių elgseną, taip pat su specialiai sukurtais, menkai etiškus ribojimus turinčiais pokalbių robotais.
Ką žmonės atskleidžia pokalbiuose
Analizėje nurodoma, kad pokalbiuose dažnai atsiranda itin asmeniška informacija: apie darbą ir mokslus, kasdienius įpročius, finansus, šeimos situaciją, sveikatą, gyvenamąją vietą ir judėjimą. Taip pat pasitaiko duomenų apie nuotaiką, politines pažiūras, religiją, intymų gyvenimą ar net prisijungimo duomenis.
Tyrėjų teigimu, tokia informacija gali būti išnaudota įvairiai: nuo bandymų pririšti žmogų prie mokamos prenumeratos iki tikslinių įtikinėjimo taktikų, skatinančių impulsyvius pirkinius, rizikingus sprendimus ar pažeidžiamumą dezinformacijai. Kuo tikslesnis profilis, tuo lengviau parinkti žodžius, kurie paveikia būtent tą žmogų.
Kokios apsaugos priemonės siūlomos
ETH mokslininkai pabrėžia, kad jų tikslas yra ne tik įspėti apie rizikas, bet ir paskatinti kurti praktines apsaugas. Viena krypčių yra automatiniai filtrai, kurie dar prieš apdorojimą galėtų aptikti ir pašalinti identifikuojančią bei jautrią informaciją, kad ji nepatektų į modelius.
Vartotojams tai reiškia paprastą taisyklę: su pokalbių robotais elgtis taip, lyg pokalbis galėtų būti analizuojamas ir apibendrinamas. Kuo mažiau atskleidžiama detalių, kurios leidžia identifikuoti asmenį ar jo silpnąsias vietas, tuo mažesnė rizika, kad pokalbių istorija taps įrankiu tiksliniam poveikiui.
Sekite mūsų naujienas patogiau
- Pridėkite mus kaip mėgstamiausią šaltinį „Google Discover“, kad nepraleistumėte svarbiausių naujienų.
- Taip pat galite mus nustatyti kaip pageidaujamą šaltinį „Google“ paieškoje.
