Joshas Lospinoso, „Shift5“ generalinis direktorius ir vienas iš įkūrėjų, parodytas 2022 m. balandžio mėn. nuotraukoje. Kreditas: Stephenas Voss, Shift5 per AP Pirmąjį Josho Lospinoso kibernetinio saugumo startuolį 2017 m. įsigijo „Raytheon/Forcepoint“. Antrasis „Shift5“ dirba su JAV kariuomene, geležinkelių operatoriais ir oro linijomis, įskaitant „JetBlue“. 2009 m. Vest Pointo absolventas ir Rodo mokslininkas, 36 metų buvęs armijos kapitonas daugiau nei dešimtmetį kūrė įsilaužimo įrankius Nacionalinei saugumo agentūrai ir JAV kibernetinei vadovybei.
Lospinoso neseniai pasakė Senato ginkluotųjų pajėgų pakomitečiui, kaip dirbtinis intelektas gali padėti apsaugoti karines operacijas. Generalinis direktorius / programuotojas aptarė temą su „The Associated Press“, taip pat apie tai, kaip ginklų sistemų programinės įrangos pažeidžiamumas kelia didelę grėsmę JAV kariuomenei. Interviu buvo redaguotas siekiant aiškumo ir ilgio.
Kl.: Savo parodymuose apibūdinote dvi pagrindines grėsmes technologijoms, kuriose įgalintas dirbtinis intelektas: viena yra vagystė. Tai savaime aišku. Kitas – apsinuodijimas duomenimis. Ar galite tai paaiškinti?
A: Vienas iš būdų galvoti apie duomenų apsinuodijimą yra skaitmeninė dezinformacija. Jei priešininkai sugeba sukurti duomenis, kuriuos mato dirbtinio intelekto technologijos, jie gali labai paveikti tos technologijos veikimą.
Kl.: Ar vyksta duomenų apsinuodijimas?
A: Mes to nematome plačiai. Bet tai įvyko. Vienas žinomiausių atvejų įvyko 2016 m. „Microsoft“ išleido „Twitter“ pokalbių robotą, pavadintą Tay, kuris sužinojo iš pokalbių internete. Piktybiški vartotojai užsimanė tviteryje skelbti įžeidžiančią, įžeidžiančią kalbą. Tay pradėjo generuoti uždegiminį turinį. „Microsoft“ jį perėmė neprisijungus.
Kl.: AI nėra tik pokalbių robotai. Tai jau seniai yra kibernetinio saugumo dalis, tiesa?
A: AI naudojamas el. pašto filtruose, siekiant pažymėti ir atskirti nepageidaujamą paštą ir sukčiavimo jaukus. Kitas pavyzdys yra galiniai taškai, pvz., antivirusinė programa nešiojamajame kompiuteryje arba kenkėjiškų programų aptikimo programinė įranga, kuri veikia tinkluose. Žinoma, įžeidžiantys įsilaužėliai taip pat naudoja AI, kad bandytų nugalėti šias klasifikavimo sistemas. Tai vadinama priešpriešiniu AI.
Klausimas: Pakalbėkime apie karines programinės įrangos sistemas. Nerimą keliančioje 2018 m. Vyriausybės atskaitomybės tarnybos ataskaitoje teigiama, kad beveik visose naujai sukurtose ginklų sistemose yra svarbių pažeidžiamumų. O Pentagonas galvoja apie AI įtraukimą į tokias sistemas? A: Čia yra dvi problemos. Pirma, turime tinkamai apsaugoti esamas ginklų sistemas. Tai mūsų techninė skola, kurią sumokėti reikės labai ilgai. Tada atsiranda nauja AI algoritmų apsaugos riba – nauji dalykai, kuriuos įdiegtume. GAO ataskaitoje tikrai nebuvo kalbama apie AI. Taigi pamirškite AI akimirką. Jei šios sistemos išliks tokios, kokios yra, jos vis tiek yra labai pažeidžiamos.
Mes diskutuojame apie tai, kaip išplėsti voką ir pridėti dirbtinio intelekto įgalintų galimybių, tokių kaip patobulinta priežiūra ir veikimo žvalgyba. Viskas puiku. Bet mes statome ant kortų namelio. Daugelis sistemų yra dešimtmečių senumo, jose įdiegtos skaitmeninės technologijos. Orlaiviai, antžeminės transporto priemonės, kosminiai įrenginiai, povandeniniai laivai. Dabar jie yra tarpusavyje susiję. Keičiame duomenis į jas. Sistemos yra porėtos, jas sunku atnaujinti ir gali būti užpultos. Kai užpuolikas gauna prieigą, žaidimas baigiasi.
Kartais lengviau sukurti naują platformą nei pertvarkyti esamų sistemų skaitmeninius komponentus. Tačiau AI yra atsakingas už šių sistemų saugumą. AI gali būti naudojamas apsiginti, jei kas nors bando juos sukompromituoti.
Klausimas: Jūs paliudijote, kad AI tyrimų pristabdymas, kaip kai kurie ragino, būtų bloga idėja, nes tai būtų palanki Kinijai ir kitiems konkurentams. Tačiau jūs taip pat nerimaujate dėl staigios skubėjimo prie AI produktų. Kodėl? A: Nemėgstu skambėti fatalistiškai, bet atrodo, kad tinka vadinamasis „deginimo naudojimo“ atvejis. Į rinką atskubėta prekė dažnai užsidega (įsilaužiama, sugenda, padaro netyčinę žalą). Ir mes sakome: „Vaikeli, mes turėjome sukurti saugumą“. Tikiuosi, kad dirbtinio intelekto kūrimo tempas paspartės, ir mes galime nepakankamai pristabdyti, kad tai padarytume saugiai ir atsakingai. Šiuos klausimus bent jau svarsto Baltieji rūmai ir Kongresas.
Klausimas: Panašu, kad daugybė kompanijų, įskaitant gynybos sektorių, skuba skelbti puskeptus AI produktus. A: Kiekviena technologijų įmonė ir daugelis ne technologijų įmonių padarė beveik siaubingą posūkį dirbtinio intelekto link. Artėja ekonominiai išnirimai. Verslo modeliai pasikeis iš esmės. Dislokacijos jau vyksta arba yra horizonte, o verslo lyderiai stengiasi neužgauti plokščiapadystės.
Kl.: O kaip dirbtinio intelekto naudojimas priimant karinius sprendimus, pvz., taikymą? A: Nemanau, kategoriškai nemanau, kad dirbtinio intelekto algoritmai – mūsų renkami duomenys – yra pasirengę geriausiu laiku, kad mirtina ginklų sistema priimtų sprendimus. Mes tiesiog taip toli nuo to.
© 2023 The Associated Press. Visos teisės saugomos. Šios medžiagos negalima skelbti, transliuoti, perrašyti ar platinti be leidimo.
Citata: Insider Klausimai ir atsakymai: Dirbtinis intelektas ir kibernetinis saugumas karinėse technologijose (2023 m. gegužės 29 d.), gautas 2023 m. gegužės 29 d. iš https://techxplore.com/news/2023-05-insider-qa-artificial-intelligence-cybersecurity.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

