Nauja JAV kryptis gali pakeisti visą dirbtinio intelekto rinką: įsitraukia ir Gynybos departamentas
JAV administracija ketina įtvirtinti praktiką, pagal kurią pažangūs dirbtinio intelekto modeliai būtų pateikiami valdžios ekspertams dar prieš oficialų jų pristatymą. Tokį bendradarbiavimą su JAV institucijomis patvirtino „Google“, „Microsoft“ ir „xAI“.
Pagrindinis tikslas – anksti įvertinti rizikas nacionaliniam saugumui ir viešajam saugumui, kol nauji modeliai nepateko į plačią rinką. Tai rodo ryškesnį posūkį į griežtesnę technologijų sektoriaus priežiūrą.
Kas ir kaip testuos modelius
Modelių patikras planuojama vykdyti JAV Prekybos departamento struktūroje veikiančiame Dirbtinio intelekto standartų ir inovacijų centre CAISI, bendradarbiaujant su Nacionaliniu standartų ir technologijų institutu. Tikrinant bus vertinamas atsparumas kibernetinėms atakoms ir galimas pritaikymas kariniams tikslams.
CAISI akcentuoja, kad nepriklausomas, griežtas vertinimas yra būtinas norint suprasti vadinamųjų pažangiausių DI sistemų poveikį ir jų keliamas grėsmes. Praktikoje tai reiškia bandymus, kurie gali apimti įvairias elgsenos ir saugumo patikras dar iki viešo paleidimo.
„Nepriklausomas ir griežtas mokslinis vertinimas yra būtinas, kad suprastume pažangiausią DI ir jo pasekmes nacionaliniam saugumui“, – sakė CAISI vadovas Chrisas Fallas.
Kodėl sprendimas priimtas dabar
Diskusijas suaktyvino pastarojo meto susirūpinimas dėl itin galingų modelių galimybių, ypač kibernetinio saugumo srityje. Technologijų pažanga didina ne tik produktyvumą, bet ir riziką, kad įrankiai bus panaudoti įsilaužimams, dezinformacijai ar jautrių sistemų pažeidžiamumui išnaudoti.
Šiame kontekste valdžios institucijoms svarbu turėti prieigą prie išankstinių versijų, kad būtų galima identifikuoti pavojingus scenarijus ir rekomenduoti papildomas apsaugas. Tai atitinka platesnę kryptį, kai valstybės siekia perkelti DI saugumo vertinimą iš reakcijos po incidentų į prevenciją.
„Nė viena organizacija negali viena pati išspręsti šių iššūkių. Partnerystės su CAISI yra mūsų pastangų dalis, kuriant bendras metodikas, duomenis ir gebėjimus efektyviai testuoti DI“, – sakė „Microsoft“ atsakingo DI padalinio vadovė Natasha Crampton.
Kartu JAV Gynybos departamentas atskirai plečia susitarimus su keliomis DI bendrovėmis dėl technologijų diegimo uždarose, jautriose tinklų aplinkose. Tai rodo, kad DI vertinimas tampa ne vien civiliniu reguliavimo klausimu, bet ir praktiniu saugumo infrastruktūros elementu.
Kol „Microsoft“ ir dalis kitų rinkos dalyvių aktyviai komentuoja bendradarbiavimą, „Google“ viešų detalių pateikia mažiau, o „xAI“ į paklausimus ne visada reaguoja. Vis dėlto kryptis aiški: pažangūs DI modeliai JAV vis dažniau bus vertinami ne tik rinkoje, bet ir prieš patekdami į ją.
Kas keičiasi JAV politikoje
JAV administracija ketina įtvirtinti praktiką, pagal kurią pažangūs dirbtinio intelekto modeliai būtų pateikiami valdžios ekspertams dar prieš oficialų jų pristatymą. Tokį bendradarbiavimą su JAV institucijomis patvirtino „Google“, „Microsoft“ ir „xAI“.
Pagrindinis tikslas – anksti įvertinti rizikas nacionaliniam saugumui ir viešajam saugumui, kol nauji modeliai nepateko į plačią rinką. Tai rodo ryškesnį posūkį į griežtesnę technologijų sektoriaus priežiūrą.
Kas ir kaip testuos modelius
Modelių patikras planuojama vykdyti JAV Prekybos departamento struktūroje veikiančiame Dirbtinio intelekto standartų ir inovacijų centre CAISI, bendradarbiaujant su Nacionaliniu standartų ir technologijų institutu. Tikrinant bus vertinamas atsparumas kibernetinėms atakoms ir galimas pritaikymas kariniams tikslams.
CAISI akcentuoja, kad nepriklausomas, griežtas vertinimas yra būtinas norint suprasti vadinamųjų pažangiausių DI sistemų poveikį ir jų keliamas grėsmes. Praktikoje tai reiškia bandymus, kurie gali apimti įvairias elgsenos ir saugumo patikras dar iki viešo paleidimo.
„Nepriklausomas ir griežtas mokslinis vertinimas yra būtinas, kad suprastume pažangiausią DI ir jo pasekmes nacionaliniam saugumui“, – sakė CAISI vadovas Chrisas Fallas.
Kodėl sprendimas priimtas dabar
Diskusijas suaktyvino pastarojo meto susirūpinimas dėl itin galingų modelių galimybių, ypač kibernetinio saugumo srityje. Technologijų pažanga didina ne tik produktyvumą, bet ir riziką, kad įrankiai bus panaudoti įsilaužimams, dezinformacijai ar jautrių sistemų pažeidžiamumui išnaudoti.
Šiame kontekste valdžios institucijoms svarbu turėti prieigą prie išankstinių versijų, kad būtų galima identifikuoti pavojingus scenarijus ir rekomenduoti papildomas apsaugas. Tai atitinka platesnę kryptį, kai valstybės siekia perkelti DI saugumo vertinimą iš reakcijos po incidentų į prevenciją.
„Nė viena organizacija negali viena pati išspręsti šių iššūkių. Partnerystės su CAISI yra mūsų pastangų dalis, kuriant bendras metodikas, duomenis ir gebėjimus efektyviai testuoti DI“, – sakė „Microsoft“ atsakingo DI padalinio vadovė Natasha Crampton.
Kartu JAV Gynybos departamentas atskirai plečia susitarimus su keliomis DI bendrovėmis dėl technologijų diegimo uždarose, jautriose tinklų aplinkose. Tai rodo, kad DI vertinimas tampa ne vien civiliniu reguliavimo klausimu, bet ir praktiniu saugumo infrastruktūros elementu.
Kol „Microsoft“ ir dalis kitų rinkos dalyvių aktyviai komentuoja bendradarbiavimą, „Google“ viešų detalių pateikia mažiau, o „xAI“ į paklausimus ne visada reaguoja. Vis dėlto kryptis aiški: pažangūs DI modeliai JAV vis dažniau bus vertinami ne tik rinkoje, bet ir prieš patekdami į ją.
Sekite mūsų naujienas patogiau
- Pridėkite mus kaip mėgstamiausią šaltinį „Google Discover“, kad nepraleistumėte svarbiausių naujienų.
- Taip pat galite mus nustatyti kaip pageidaujamą šaltinį „Google“ paieškoje.
