Dirbtinio intelekto (DI) pažanga pastaraisiais metais kelia vis daugiau klausimų dėl saugumo, etikos ir valdžios institucijų įtakos technologijų kūrėjams. Naujausi įvykiai JAV gynybos sektoriuje ir bendrovės „Anthropic“ sprendimas peržiūrėti savo pagrindinius saugumo įsipareigojimus atskleidžia, kaip greitai gali kisti pažangiausių startuolių deklaruojamos vertybės, susidūrus su geopolitiniais ir komerciniais interesais.
Dvi antradienį pasirodžiusios naujienos apie „Claude“ kūrėją „Anthropic“, vertinamos kartu, piešia nerimą keliantį vaizdą. Pranešama, kad JAV gynybos sekretorius Pete’as Hegsethas spaudžia bendrovę atsisakyti dalies DI saugiklių ir suteikti kariuomenei neribotą prieigą prie „Claude“ pokalbių roboto. Tą pačią dieną, kai pasirodė šios žinios, „Anthropic“ taip pat tyliai atsisakė vieno esminių savo saugumo pažadų.
Antradienį „Anthropic“ pranešė keičianti savo „Responsible Scaling Policy“ (RSP) ir silpninanti iki tol galiojusius saugumo ribojimus. Iki šiol pagrindinis bendrovės įsipareigojimas buvo aiškus: ji sustabdytų naujų DI modelių treniravimą, jei iš anksto negalėtų užtikrinti, kad laikomasi konkrečių saugumo gairių. Ši griežtų „stabdžių“ politika, numatanti aiškias ribas, kada plėtra privalo būti sustabdyta, buvo esminė „Anthropic“ žinutės dalis verslui ir vartotojams.
„Praėjus dvejiems su puse metų, sąžiningai vertindami matome, kad dalis šios pokyčių teorijos pasiteisino taip, kaip tikėjomės, tačiau kita dalis – ne“, – pažymėjo „Anthropic“. Atnaujintoje politikoje saugumas pradedamas vertinti santykinai, nebe per griežtų raudonųjų linijų prizmę.
Vertinant pavieniui, „Anthropic“ atstovų argumentai interviu gali skambėti nuosaikiai. „Mums atrodė, kad realiai niekam nepadės, jei tiesiog sustabdysime DI modelių treniravimą“, – sakė „Anthropic“ vyriausiasis mokslo pareigūnas Jaredas Kaplanas. Pasak jo, atsižvelgiant į sparčią DI pažangą, „neatrodė prasminga vienašališkai prisiimti įsipareigojimus, jei konkurentai tuo metu žengia į priekį be analogiškų apribojimų“.
Vis dėlto tuos pačius teiginius galima vertinti ir kaip dar vieną pavyzdį, kai sparčiai augančio startuolio etiniai principai pamažu blunka kartu su augančia jo verte. Tai primena ankstyvąjį „Google“ šūkį „Don’t be evil“ („Nebūk blogas“), kuris vėliau buvo pašalintas iš bendrovės elgesio kodekso. Naujausios „Claude“ versijos sulaukė plačių pagyrų, ypač programavimo srityje. 2026 m. vasarį „Anthropic“ pritraukė dar 30 mlrd. JAV dolerių investicijų ir dabar vertinama maždaug 380 mlrd. dolerių. Tuo metu konkurentė „OpenAI“ vertinama daugiau nei 850 mlrd. dolerių.
Vietoje ankstesnių aiškių plėtros stabdymo „saugos laidų“ „Anthropic“ ketina diegti naujus „Risk Reports“ (rizikų vertinimo ataskaitas) ir „Frontier Safety Roadmaps“ (pažangiausių modelių saugumo planus). Pasak bendrovės, šie ataskaitų ir gairių formatai turėtų užtikrinti didesnį skaidrumą visuomenei, pakeisdami iki tol taikytas griežtas ribas.
„Anthropic“ teigimu, pokyčius paskatino „kolektyvinio veiksmo problema“, kylanti dėl itin konkurencingos DI rinkos ir JAV antireguliacinio požiūrio. Atnaujintoje RSP versijoje pabrėžiama, kad jei vienas DI kūrėjas pristabdytų plėtrą, siekdamas įgyvendinti saugumo priemones, o kiti toliau kurtų ir diegtų DI sistemas be tvirtų apsaugos mechanizmų, pasaulis iš esmės taptų mažiau saugus. Tokiu atveju tempą diktuotų silpniausias apsaugas turintys kūrėjai, o atsakingi kūrėjai prarastų galimybę vykdyti saugumo tyrimus ir kurti visuomenės gerovę didinančias technologijas.
Tiek „Anthropic“ pranešime, tiek išsamesniuose pasakojimuose apie naująją RSP neminimas akivaizdus kontekstas – Pentagono spaudimas. Antradienį paaiškėjo, kad Hegsethas „Anthropic“ generaliniam direktoriui Dariui Amodei esą pateikė ultimatumą: iki penktadienio bendrovė turi suteikti kariuomenei neribotą prieigą prie savo DI modelio, kitaip susidurs su sankcijomis. „Anthropic“ siūlė taikyti savo naudojimo taisykles ir Pentagono projektams, tačiau atsisakė leisti modelį naudoti masiniam amerikiečių sekimui ar ginklų sistemoms, veikiančioms be žmogaus įsikišimo.
Jei „Anthropic“ nesutiktų su Pentagono reikalavimais, vienas pagrindinių jos instrumentų galėtų būti teisminis ginčas. Tačiau lieka klausimas, ar grasinamos sankcijos nebus pakankamai bauginančios, kad pelno siekiantis startuolis galiausiai nusileistų. Hegsethas, kaip teigiama, grasina pasinaudoti Gynybos gamybos aktu (Defense Production Act), suteikiančiu prezidentui teisę nacionalinio saugumo pagrindu įpareigoti privačias bendroves teikti prioritetą tam tikroms sutartims. Kariuomenė taip pat galėtų nutraukti turimas sutartis su „Anthropic“ ir pripažinti ją tiekimo grandinės rizikos veiksniu. Tokiu atveju kitos su Pentagono projektais dirbančios įmonės turėtų oficialiai patvirtinti, kad savo darbo procesuose nenaudoja „Claude“.
„Claude“ šiuo metu esą yra vienintelis DI modelis, naudojamas jautriausiems kariuomenės darbams. „Vienintelė priežastis, kodėl mes vis dar kalbamės su šiais žmonėmis, yra ta, kad mums jų reikia, ir mums jų reikia dabar“, – sakė vienas gynybos pareigūnas. „Problema jiems ta, kad jie tokie geri.“ Skelbiama, kad „Claude“ buvo naudojamas ir operacijoje prieš Maduro režimą Venesueloje – šią temą Amodei esą aptarė su partneriu „Palantir“.
Papildomame vertinime, paskelbtame kartu su naujos RSP analizėmis, nevyriausybinių organizacijų, tiriančių DI rizikas, atstovai pabrėžė, kad „Anthropic“ žingsnis yra ir suprantamas, ir potencialiai nerimą keliantis. METR direktorius Chrisas Painteris teigė vertinantis akcentą skaidrioms rizikų ataskaitoms ir viešai tikrinamiems saugumo planams. Tačiau jis perspėjo apie „varlės virimo“ efektą: kai saugumas tampa pilkąja zona, gali prasidėti nesibaigianti, iš pirmo žvilgsnio racionalių išlygų grandinė, kuri pamažu nuveda tuo pačiu tamsiu keliu, kurį bendrovė anksčiau pati kritikavo.
Anot Painterio, naujoji RSP rodo, kad „Anthropic“ mano privalanti pereiti prie savotiško „triage“ režimo saugumo planuose, nes rizikų vertinimo ir mažinimo metodai nebespėja su DI galimybių šuoliu. „Tai dar vienas įrodymas, kad visuomenė nėra pasirengusi potencialiai katastrofiškoms rizikoms, kurias gali sukelti DI“, – pažymėjo jis.

