Dirbtinio intelekto technologijos vis glaudžiau persipina su JAV gynybos sektoriumi, o neseniai sudarytas „OpenAI“ ir JAV Gynybos departamento (DoW) susitarimas išryškino ne tik technologinius, bet ir etinius nesutarimus tarp skirtingų AI kūrėjų. Toliau aptariama, kokiomis sąlygomis „OpenAI“ sutiko dirbti su DoW, kodėl „Anthropic“ tam griežtai prieštarauja ir kokias pasekmes tai gali turėti visai AI industrijai.
„OpenAI“ paskelbė sudariusi susitarimą su JAV Gynybos departamentu dėl savo modelių diegimo šios institucijos tinkle. Bendrovės vadovas Samas Altmanas nurodė, kad dvi svarbiausios „OpenAI“ saugumo nuostatos yra draudimas vykdyti plataus masto vidaus stebėseną ir reikalavimas, jog žmonės prisiimtų atsakomybę už jėgos naudojimą, įskaitant atvejus, susijusius su autonominėmis ginklų sistemomis.
Anot Altmano, šios nuostatos buvo aiškiai įtrauktos į sutartį su departamentu, o DoW įsipareigojo jų laikytis. Jis taip pat pabrėžė, kad bendrovė siekia, jog analogiškos sąlygos būtų taikomos visoms AI įmonėms, su kuriomis bendradarbiauja vyriausybinės institucijos.
Susitarimas su „OpenAI“ buvo užbaigtas netrukus po to, kai prezidentas Donaldas Trumpas nurodė vyriausybinėms agentūroms nutraukti „Claude“ ir kitų „Anthropic“ paslaugų naudojimą. Anksčiau JAV gynybos sekretorius Pete’as Hegsethas buvo pagrasinęs „Anthropic“ priskirti tiekimo grandinės rizikos statusą, jei bendrovė ir toliau atsisakys panaikinti apsauginius ribojimus, trukdančius technologiją naudoti masinei amerikiečių stebėsenai ir visiškai autonominiams ginklams.
Vis dėlto nėra iki galo aišku, kodėl vyriausybė sutiko bendradarbiauti su „OpenAI“, jei ir jos modeliai turi panašius apsauginius ribojimus. Altmanas tvirtina, kad „OpenAI“ nuosekliai kelia tą patį reikalavimą: vienodos taisyklės turėtų galioti visiems AI tiekėjams, dirbantiems su valdžios institucijomis.
Tuo metu vyresnysis pareigūnas Jeremy’is Lewinas, atsakingas už užsienio paramą, humanitarinius reikalus ir religijos laisvės klausimus, teigė, kad DoW sutartyse remiasi esamomis teisinėmis nuostatomis ir numato tarpusavyje suderintus saugumo mechanizmus. Jo teigimu, toms pačioms sąlygoms pritarė tiek „OpenAI“, tiek „xAI“, kuri jau anksčiau buvo pasirašiusi susitarimą dėl „Grok“ diegimo DoW slaptose sistemose. Lewinas taip pat tvirtino, kad analogiškas kompromisas buvo pasiūlytas „Anthropic“, tačiau ši bendrovė jį atmetė.
„Anthropic“, kuri su JAV vyriausybe pradėjo dirbti 2024 metais, atsisakė nusileisti spaudimui. Naujausiame bendrovės pareiškime pakartota principinė pozicija: joks DoW spaudimas ar galimos sankcijos nepakeis požiūrio į masinę vidaus stebėseną ar visiškai autonominius ginklus. Bendrovė taip pat pareiškė, kad teisme ginčys bet kokį bandymą jai priskirti tiekimo grandinės rizikos statusą.
Altmanas papildomai pabrėžė, kad „OpenAI“ kurs technines apsaugos priemones, kurios užtikrintų, jog modeliai veiktų pagal sutartas taisykles, ir kad tokio pat tikslo esą siekia ir DoW. Nurodoma, kad „OpenAI“ inžinieriai dirbs kartu su departamento specialistais, jog būtų užtikrintas modelių saugumas, o diegimas vyks tik debesijos tinkluose.
Šiuo metu „OpenAI“ dar neveikia „Amazon“ debesijos infrastruktūroje, kuri plačiai naudojama JAV vyriausybės reikmėms, tačiau situacija gali greitai keistis. Bendrovė neseniai paskelbė apie partnerystę su „Amazon“, pagal kurią jos modeliai verslo klientams turėtų būti teikiami per AWS.
Ši gynybos sektoriuje stiprėjanti susitarimų dėl AI technologijų banga atskleidžia ryškėjantį industrijos skilimą. Vieni kūrėjai, tokie kaip „OpenAI“ ir „xAI“, siekia dirbti su vyriausybinėmis struktūromis, į sutartis įrašydami konkrečias saugumo nuostatas. Kiti, pavyzdžiui, „Anthropic“, renkasi kategoriškai atsisakyti bendradarbiavimo, jei jis galėtų sudaryti prielaidas masinei stebėsenai ar visiškai autonominių ginklų kūrimui ir naudojimui. Tikėtina, kad būtent šis konfliktas artimiausiais metais taps vienu iš esminių klausimų, formuojant dirbtinio intelekto reguliavimo kryptį tiek JAV, tiek tarptautiniu mastu.

