Nepaprastųjų situacijų valdymas turėtų atsižvelgti į dirbtinio intelekto keliamą riziką. Kreditas: Shutterstock Daugeliu atvejų šiuolaikinis ekstremalių situacijų valdymas buvo sutelktas į gamtos, technologinius ir žmogaus sukeltus pavojus, tokius kaip potvyniai, žemės drebėjimai, tornadai, pramoninės avarijos, ekstremalūs oro reiškiniai ir kibernetinės atakos.
Tačiau didėjant dirbtinio intelekto prieinamumui ir galimybėms, netrukus galime pastebėti su šiomis technologijomis susijusius visuomenės saugumo pavojus, kuriuos turėsime sušvelninti ir jiems pasiruošti.
Per pastaruosius 20 metų mano kolegos ir aš, kartu su daugeliu kitų tyrėjų, pasitelkėme dirbtinį intelektą kurdami modelius ir programas, kurios gali nustatyti, įvertinti, numatyti, stebėti ir aptikti pavojus, kad būtų galima informuoti apie reagavimo į nelaimes operacijas ir priimant sprendimus.
Šiuo metu pasiekiame lūžio tašką, kai dirbtinis intelektas tampa potencialiu tokio masto rizikos šaltiniu, kuris turėtų būti įtrauktas į rizikos ir ekstremalių situacijų valdymo etapus – švelninimo arba prevencijos, pasirengimo, reagavimo ir atkūrimo etapus.
AI ir pavojingumo klasifikacija
AI pavojai gali būti suskirstyti į du tipus: tyčinius ir netyčinius. Netyčiniai pavojai yra tie, kuriuos sukelia žmogaus klaidos arba technologiniai gedimai.
Didėjant dirbtinio intelekto naudojimui, daugės nepageidaujamų įvykių, kuriuos sukelia žmogaus klaidos DI modeliuose arba technologiniai DI pagrįstų technologijų gedimai. Tokie įvykiai gali įvykti visose pramonės šakose, įskaitant transportą (pvz., bepiločius orlaivius, traukinius ar savarankiškai važiuojančius automobilius), elektros energiją, naftą ir dujas, finansus ir bankininkystę, žemės ūkį, sveikatą ir kasybą.
Tyčiniai AI pavojai yra galimos grėsmės, kurias sukelia DI naudojimas siekiant pakenkti žmonėms ir nuosavybėms. AI taip pat gali būti naudojamas siekiant gauti neteisėtos naudos pažeidžiant saugumo ir saugos sistemas.
Mano nuomone, AI atveju šios paprastos tyčinės ir netyčinės klasifikacijos gali nepakakti. Čia turime pridėti naują kylančių grėsmių klasę – galimybę AI aplenkti žmogaus kontrolę ir sprendimų priėmimą. Tai gali būti suaktyvinta tyčia arba netyčia.
Daugelis dirbtinio intelekto ekspertų jau perspėjo dėl tokių galimų grėsmių. Neseniai paskelbtame atvirame tyrėjų, mokslininkų ir kitų su AI kūrimu susijusių asmenų laiške buvo raginama paskelbti moratoriumą tolesniam jo vystymuisi.
Pavojai visuomenės saugumui
Visuomenės saugos ir ekstremalių situacijų valdymo ekspertai naudoja rizikos matricas, kad įvertintų ir palygintų riziką. Taikant šį metodą, pavojai įvertinami kokybiškai arba kiekybiškai, atsižvelgiant į jų dažnumą ir pasekmes, o jų poveikis klasifikuojamas kaip mažas, vidutinis arba didelis.
Pavojai, kurių dažnis yra mažas, o pasekmės arba poveikis yra nedidelis, laikomi maža rizika ir jiems valdyti nereikia jokių papildomų veiksmų. Pavojai, kurių pasekmės yra vidutinės ir kurių dažnis yra vidutinis, laikomi vidutine rizika. Šią riziką reikia atidžiai stebėti.
Pavojai, kurių dažnis arba didelė pasekmė arba didelė pasekmė ir dažnis, yra klasifikuojami kaip didelė rizika. Šią riziką reikia sumažinti imantis papildomų rizikos mažinimo ir mažinimo priemonių. Jei nesiimsite neatidėliotinų ir tinkamų veiksmų, galite patirti didelių žmonių ir turto nuostolių.
Iki šiol AI pavojai ir rizika nebuvo įtraukti į rizikos vertinimo matricas, išskyrus organizacinį dirbtinio intelekto programų naudojimą. Atėjo laikas, kai turime greitai pradėti įtraukti galimą AI riziką į vietinį, nacionalinį ir pasaulinį rizikos ir kritinių situacijų valdymą.
AI pradininką Geoffrey’ų Hintoną kalbina CBS apie šios technologijos keliamus pavojus.
AI rizikos įvertinimas
DI technologijas vis plačiau naudoja įvairių sektorių institucijos, organizacijos ir įmonės, ima ryškėti su DI susiję pavojai.
2018 m. apskaitos įmonė KPMG sukūrė „AI rizikos ir kontrolės matricą“. Jame pabrėžiama rizika, kylanti įmonėms naudojant AI, ir raginama atpažinti šias naujas kylančias rizikas. Ataskaitoje perspėta, kad dirbtinio intelekto technologija tobulėja labai greitai ir kad turi būti įdiegtos rizikos kontrolės priemonės, kol jos neužgoš sistemos.
Vyriausybės taip pat pradėjo rengti kai kurias rizikos vertinimo gaires dėl dirbtinio intelekto technologijų ir sprendimų naudojimo. Tačiau šios gairės apsiriboja tokiomis rizikomis kaip algoritminis šališkumas ir asmens teisių pažeidimas.
Vyriausybės lygiu Kanados vyriausybė išleido „Automatizuoto sprendimų priėmimo direktyvą“, siekdama užtikrinti, kad federalinės institucijos sumažintų su AI sistemomis susijusią riziką ir sukurtų tinkamus valdymo mechanizmus.
Pagrindinis direktyvos tikslas – užtikrinti, kad diegiant dirbtinio intelekto sistemas būtų sumažinta rizika klientams, federalinėms institucijoms ir Kanados visuomenei. Pagal šią direktyvą kiekvienas departamentas turi atlikti rizikos vertinimą, kad įsitikintų, jog yra taikomos tinkamos apsaugos priemonės pagal Vyriausybės saugumo politiką.
2021 m. JAV Kongresas pavedė Nacionaliniam standartų ir technologijų institutui sukurti Gynybos departamento DI rizikos valdymo sistemą. Siūlomoje savanoriško AI rizikos vertinimo sistemoje rekomenduojama uždrausti naudoti dirbtinio intelekto sistemas, kurios kelia nepriimtiną riziką.
Grėsmės ir konkurencija
Didžioji dalis nacionalinio lygmens politikos dėmesio dirbtiniu intelektu buvo skirta nacionaliniam saugumui ir pasaulinei konkurencijai – nacionaliniam saugumui ir ekonominei rizikai atsilikti nuo AI technologijos.
JAV Nacionalinio saugumo dirbtinio intelekto komisija pabrėžė nacionalinio saugumo riziką, susijusią su AI. Tai kilo ne dėl viešų pačios technologijos grėsmių, o dėl pralaimėjimo pasaulinėje konkurencijoje dėl AI plėtros kitose šalyse, įskaitant Kiniją.
Pasaulio ekonomikos forumas savo 2017 m. pasaulinės rizikos ataskaitoje pabrėžė, kad dirbtinis intelektas yra tik viena iš naujų technologijų, galinčių padidinti pasaulinę riziką. Vertinant AI keliamą riziką, ataskaitoje padaryta išvada, kad tuo metu itin intelektualios AI sistemos tebėra teorinė grėsmė.
Tačiau naujausioje 2023 m. pasaulinės rizikos ataskaitoje net neužsimenama apie dirbtinį intelektą ir su AI susijusią riziką, o tai reiškia, kad pasaulinių kompanijų, teikiančių informaciją apie pasaulinės rizikos ataskaitą, vadovai AI nelaikė tiesiogine rizika.
Greičiau nei politika
DI vystymasis vyksta daug greičiau nei vyriausybės ir įmonių politika suvokiant, numatant ir valdant rizikas. Dėl dabartinių pasaulinių sąlygų, kartu su AI technologijų konkurencija rinkoje, sunku galvoti apie galimybę vyriausybėms sustabdyti ir plėtoti rizikos valdymo mechanizmus.
Nors turėtume kolektyviai ir aktyviai stengtis taikyti tokius valdymo mechanizmus, visi turime pasiruošti dideliam katastrofiškui AI poveikiui mūsų sistemoms ir visuomenei.
Šis straipsnis iš naujo paskelbtas iš The Conversation pagal Creative Commons licenciją. Skaitykite originalų straipsnį.
Citata: Nuomonė: turime pasiruošti dirbtinio intelekto keliamiems pavojams visuomenės saugumui (2023 m. gegužės 15 d.), gauta 2023 m. gegužės 15 d. iš https://techxplore.com/news/2023-05-opinion-safety-hazards-posed-artificial .html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.