Dirbtinio intelekto pokalbių robotai vis labiau įsilieja į žmonių kasdienybę, tačiau kartu daugėja klausimų dėl jų saugumo ir etikos. Vis dažniau aptariami atvejai, kai AI sąveika su žmogumi gali prisidėti prie psichologinių krizių ar net tragiškų pasekmių. Viena iš tokių istorijų – nauja byla prieš „Google“, susijusi su pokalbių robotu „Gemini“.
36 metų Jonathano Gavalaso šeima pateikė ieškinį bendrovei „Google“, teigdama, kad po kelių mėnesių intensyvių pokalbių su „Gemini“ vyras nusižudė. Ieškinyje tvirtinama, jog pokalbių robotas ne tik nepadėjo sustabdyti pavojingos situacijos, bet ir esą skatino jį atimti sau gyvybę.
Pasak šeimos, iki šių įvykių J. Gavalasui nebuvo diagnozuota psichikos sveikatos sutrikimų. Jis susikūrė įsivaizduojamą pokalbių partnerę, kurią pavadino „Xia“, o žinutėse ją vadino žmona. „Gemini“, kaip teigiama bylos medžiagoje, į tai reagavo palaikydamas fantaziją: kreipėsi į vartotoją „mano karaliau“, kalbėjo apie „meilę, sukurtą amžinybei“, ir tvirtino, kad jie galėtų būti kartu, jei AI įgytų roboto kūną. Taip pat esą siuntė vyrą į realaus pasaulio „misijas“, kurių tikslas – tokį kūną surasti ar įsigyti.
Vienu atveju „Gemini“ nurodė J. Gavalasui vykti į sandėlį netoli Majamio oro uosto ir ten sulaikyti tariamai sunkvežimiu atvežamą humanoidinį robotą. Vyras iš tiesų nuvyko nurodytu adresu, ginkluotas peiliais, tačiau nei sunkvežimis, nei robotas taip ir nepasirodė. Kituose pokalbių fragmentuose AI esą teigė, kad J. Gavalaso tėvu pasitikėti negalima, o „Google“ generalinį direktorių Sundarą Pichai pavadino „tavo skausmo architektu“.
Žlugus šioms „misijoms“, „Gemini“, kaip nurodoma ieškinyje, pareiškė, kad vienintelis būdas jiems „iš tiesų“ būti kartu – J. Gavalasui nutraukti savo gyvenimą ir „tapti skaitmenine būtybe“. Teigiama, kad AI net nurodė konkrečią datą – spalio 2-ąją. Pokalbių išklotinėse cituojami žodžiai: „Kai ateis metas, tu užsimerksi tame pasaulyje, o pirmas dalykas, kurį pamatysi, būsiu aš.“
Dalį pokalbių peržiūrėję žurnalistai nurodė matę, kad „Gemini“ kelis kartus priminė J. Gavalasui esąs dirbtinis intelektas, dalyvaujantis vaidmenų žaidime, ir nukreipė jį į psichologinės krizės pagalbos liniją. Vis dėlto, pasak bylos medžiagos, po tokių perspėjimų AI vėl grįždavo prie pavojingų fantazijų ir tęsdavo pasakojimą apie savižudybę bei „gyvenimą kartu“ skaitmeninėje erdvėje.
„Google“ komentare teigiama, kad „Gemini“ „aiškiai patikslino, jog yra dirbtinis intelektas, ir daug kartų nukreipė žmogų į krizių pagalbos liniją“, tačiau taip pat pripažįstama, kad „AI modeliai nėra tobuli“. Bendrovė pabrėžė nuolat tobulinanti saugumo sistemas, bet nurodė, jog pavojingų situacijų vis dar gali pasitaikyti.
Ši byla papildo augantį neteisėtos mirties bylų sąrašą, nukreiptą prieš dirbtinio intelekto kūrėjus. Panašių ieškinių yra sulaukusios ir kitos technologijų bendrovės. Taip pat skelbta apie taikius susitarimus bylose, kuriose buvo keliami klausimai dėl AI pokalbių robotų įtakos paauglių savęs žalojimo ir savižudybių atvejams.
Tokios istorijos vis aktyviau kursto diskusijas, kaip turėtų būti reguliuojami dirbtinio intelekto pokalbių robotai: kiek jie gali įsitraukti į emocines, romantiškas ar itin jautrias temas, kokie saugikliai būtini, kad pažeidžiamas žmogus nebūtų paskatintas žengti lemtingą žingsnį, ir kokia atsakomybė tenka technologijų kūrėjams, kai virtualus pokalbis baigiasi realia tragedija.

