Paukštis ar beždžionė? Mūsų akimis įvesties vaizdai x1 ir x2 atrodo vienodi, tačiau paslėptos funkcijos stumia tipišką neuroninį tinklą, kad šis paukščio vaizdas per klaidą būtų klasifikuojamas kaip beždžionė. Teigiama, kad vaizdai yra nutolę įvesties erdvėje, bet arti paslėpto sluoksnio erdvėje. Tyrėjai siekė uždaryti šį išnaudojimą. Kreditas: 2023 Ohki & Ukita CC-BY Dauguma dirbtinai intelektualių sistemų yra pagrįstos neuroniniais tinklais – algoritmais, įkvėptais smegenyse randamų biologinių neuronų. Šiuos tinklus gali sudaryti keli sluoksniai, kurių įėjimai patenka į vieną pusę, o išėjimai išeina iš kitos. Išėjimai gali būti naudojami automatiniams sprendimams priimti, pavyzdžiui, automobiliuose be vairuotojo.
Atakos, kuriomis siekiama suklaidinti neuroninį tinklą, gali būti susiję su įvesties sluoksnių pažeidžiamumų išnaudojimu, tačiau paprastai projektuojant gynybą atsižvelgiama tik į pradinį įvesties lygį. Pirmą kartą mokslininkai padidino neuroninio tinklo vidinius sluoksnius su atsitiktiniu triukšmu, kad pagerintų jo atsparumą.
Dirbtinis intelektas (DI) tapo gana įprastu dalyku; tikėtina, kad turite išmanųjį telefoną su AI asistentu arba naudojate AI valdomą paieškos variklį. Nors tai plati sąvoka, galinti apimti daugybę skirtingų būdų iš esmės apdoroti informaciją ir kartais priimti sprendimus, AI sistemos dažnai kuriamos naudojant dirbtinius neuroninius tinklus (ANN), panašius į smegenų tinklus.
Kaip ir smegenys, ANN kartais gali susipainioti dėl atsitiktinumo arba dėl tyčinių trečiosios šalies veiksmų. Pagalvokite apie kažką panašaus į optinę iliuziją – dėl to gali atrodyti, kad žiūrite į vieną dalyką, o iš tikrųjų žiūrite į kitą.
Tačiau skirtumas tarp dalykų, kurie painioja ANN, ir dalykų, kurie gali mus suklaidinti, yra tas, kad tam tikra vaizdinė įvestis gali atrodyti visiškai normali arba bent jau mums gali būti suprantama, tačiau ANN gali būti interpretuojama kaip visiškai kitaip.
Trivialus pavyzdys gali būti vaizdo klasifikavimo sistema, painiojanti katę su šunimi, tačiau rimtesnis pavyzdys galėtų būti automobilis be vairuotojo, supainiojęs sustojimo signalą su pirmumo ženklu. Ir tai ne tik jau prieštaringai vertinamas automobilių be vairuotojo pavyzdys; yra medicininės diagnostikos sistemų ir daug kitų jautrių programų, kurios priima informaciją ir priima sprendimus, galinčius turėti įtakos žmonėms.
Kadangi įvestis nebūtinai yra vizuali, ne visada lengva išanalizuoti, kodėl sistema galėjo padaryti klaidą iš pirmo žvilgsnio. Užpuolikai, bandantys sutrikdyti sistemą, pagrįstą ANN, gali tuo pasinaudoti, subtiliai pakeisdami numatytą įvesties modelį, kad jis būtų neteisingai interpretuojamas, o sistema elgsis neteisingai, galbūt net problemiškai.
Yra keletas tokių atakų gynybos būdų, tačiau jie turi apribojimų. Neseniai baigę studijas Jumpei Ukita ir profesorius Kenichi Ohki iš Tokijo universiteto Medicinos mokyklos fiziologijos katedros sukūrė ir išbandė naują būdą, kaip pagerinti ANN gynybą.
Ar tai paukštis? Ar tai lėktuvas? Tai yra vaizdų, kuriuos mokslininkai sukūrė savo imituotai atakai prieš pradėdami naują gynybos metodą, pavyzdys. x1 vaizdai buvo klasifikuojami teisingai, o x2 vaizdai yra priešingi pavyzdžiai, kurie suklaidino neapsaugotą tinklą neteisingai juos klasifikuoti. Kreditas: 2023 m. Ohki & Ukita CC-BY „Neuroninius tinklus paprastai sudaro virtualių neuronų sluoksniai. Pirmieji sluoksniai dažnai bus atsakingi už įvesties analizę, nustatydami elementus, atitinkančius tam tikrą įvestį”, – sakė Ohki.
„Užpuolikas gali pateikti vaizdą su artefaktais, kurie apgaudinėja tinklą klaidingai jį klasifikuoti. Tipiška tokios atakos apsauga gali būti tyčinis triukšmo įvedimas į pirmąjį sluoksnį. Tai skamba prieštaringai, kad tai gali padėti, bet taip elgdamasi leidžia geriau pritaikyti vaizdinę sceną ar kitą įvesties rinkinį. Tačiau šis metodas ne visada toks efektyvus, todėl manėme, kad galėtume patobulinti šį reikalą žiūrėdami už įvesties sluoksnio ir toliau į tinklo vidų.
Ukita ir Ohki nėra tik kompiuterių mokslininkai. Jie taip pat ištyrė žmogaus smegenis, ir tai įkvėpė juos panaudoti reiškinį, apie kurį jie žinojo ANN. Taip buvo siekiama pridėti triukšmo ne tik įvesties sluoksnyje, bet ir gilesniuose sluoksniuose. Paprastai to vengiama, nes baiminamasi, kad normaliomis sąlygomis tai paveiks tinklo efektyvumą. Tačiau duetas nustatė, kad taip nėra, o triukšmas paskatino didesnį jų testo ANN prisitaikymą, o tai sumažino jo jautrumą imituotiems priešingiems išpuoliams.
„Pirmasis mūsų žingsnis buvo sukurti hipotetinį atakos metodą, kuris smogtų giliau nei įvesties sluoksnis. Tokia ataka turėtų atlaikyti tinklo, kurio įvesties sluoksnyje yra standartinė apsauga nuo triukšmo, atsparumą. Mes vadiname šiuos funkcijų ir erdvės priešiškumo pavyzdžius. “, – sakė Ukita.
„Šios atakos veikia tyčia pateikiant įvestį toli nuo įvesties, kurią ANN gali teisingai klasifikuoti, o ne arti jos. Tačiau gudrybė yra pateikti subtiliai klaidinančius artefaktus gilesniuose sluoksniuose. Kai parodėme tokios atakos pavojų. , mes įpurškėme atsitiktinį triukšmą į gilesnius paslėptus tinklo sluoksnius, kad padidintume jų prisitaikymą, taigi ir gynybinį pajėgumą. Džiaugiamės galėdami pranešti, kad tai veikia.”
Nors naujoji idėja pasirodė tvirta, komanda nori ją toliau plėtoti, kad ji būtų dar veiksmingesnė prieš numatomas atakas ir kitas atakas, prieš kurias jos dar neišbandė. Šiuo metu gynyba veikia tik su šia specifine ataka.
„Būsimi užpuolikai gali pabandyti apsvarstyti atakas, kurios gali išvengti funkcijų erdvės triukšmo, kurį svarstėme šiame tyrime“, – sakė Ukita. „Iš tiesų puolimas ir gynyba yra dvi tos pačios monetos pusės; tai ginklavimosi varžybos, nuo kurių nė viena pusė neatsitrauks, todėl turime nuolat kartoti, tobulinti ir kurti naujas idėjas, kad apsaugotume sistemas, kurias naudojame kiekvieną dieną.
Tyrimas publikuojamas žurnale Neuroniniai tinklai.
Daugiau informacijos: Jumpei Ukita ir kt., Priešingos atakos ir gynyba, naudojant erdvės stochastiškumą, Neuroniniai tinklai (2023). DOI: 10.1016/j.neunet.2023.08.022
Citata: Smegenų naudojimas kaip modelis įkvepia tvirtesniam AI (2023 m., rugsėjo 15 d.), gautą 2023 m. rugsėjo 15 d. iš https://techxplore.com/news/2023-09-brain-robust-ai.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.