Pasak teroristinės organizacijos, dirbtinio intelekto kūrėjai turi atsisakyti savo „tech utopinio“ mąstymo, baimindamiesi, kad naujosios technologijos gali būti panaudotos pažeidžiamiems asmenims.
Jonathan Hall KC, kurio vaidmuo yra peržiūrėti terorizmo teisės aktų tinkamumą, teigė, kad dirbtinio intelekto keliama grėsmė nacionaliniam saugumui tampa vis akivaizdesnė ir technologija turi būti kuriama atsižvelgiant į teroristų ketinimus.
Jis teigė, kad per daug dirbtinio intelekto plėtojimo buvo sutelktas į potencialius technologijos pranašumus, tačiau neatsižvelgiama į tai, kaip teroristai galėtų ją panaudoti atakoms vykdyti.
„Jie turi turėti kažkokį siaubingą mažą 15-metį neonacį kambaryje ir svarstyti, ką jie galėtų padaryti. Turite sustiprinti apsaugą nuo to, ką žinote, kad žmonės su tuo darys“, – sakė Hall.
Nepriklausomas vyriausybės teisės aktų, susijusių su terorizmu, apžvalgininkas pripažino, kad jam vis labiau rūpi dirbtinio intelekto pokalbių robotų galimybės įtikinti pažeidžiamus ar neurologinius asmenis pradėti teroristinius išpuolius.
„Man nerimą kelia žmonių įtaigumas, kai aš paniręs į šį pasaulį, o kompiuteris neveikia. Kalbos vartojimas nacionalinio saugumo kontekste yra svarbus, nes galiausiai kalba įtikina žmones daryti dalykus.
Saugumo tarnyboms ypač rūpi AI pokalbių robotų galimybė suvilioti vaikus, kurie jau tampa vis didesne MI5 teroro atvejų dalimi.
Didėjant raginimams reguliuoti šią technologiją po praėjusią savaitę AI pradininkų įspėjimų, kad ji gali kelti grėsmę žmonijos išlikimui, tikimasi, kad ministras pirmininkas Rishi Sunak iškels šią problemą, kai trečiadienį keliaus į JAV. susitikti su prezidentu Bidenu ir vyresniais Kongreso veikėjais.
Grįžus į JK, MI5 ir Alano Turingo instituto, nacionalinės duomenų mokslo ir dirbtinio intelekto institucijos, partnerystės, stiprėja pastangos įveikti AI keliamus nacionalinio saugumo iššūkius.
Alexanderis Blanchardas, instituto gynybos ir saugumo programos skaitmeninės etikos mokslinis bendradarbis, teigė, kad jo darbas su saugumo tarnybomis rodo, kad JK itin rimtai žiūri į DI keliamus saugumo iššūkius.
„Gynybos ir saugumo politikos formuotojai labai nori suprasti, kas vyksta, kaip veikėjai gali naudoti dirbtinį intelektą, kokios yra grėsmės.
„Tikrai jaučiamas poreikis neatsilikti nuo to, kas vyksta. Siekiama suprasti, kokia yra rizika, kokia yra ilgalaikė rizika [and] kokia rizika kyla naujos kartos technologijoms.
Praėjusią savaitę Sunakas sakė, kad Didžioji Britanija nori tapti pasauliniu dirbtinio intelekto ir jo reguliavimo centru, tvirtindama, kad tai gali duoti „didžiulę naudą ekonomikai ir visuomenei“. Ir Blanchard, ir Hall teigia, kad pagrindinė problema yra tai, kaip žmonės išlaiko „kognityvinę autonomiją“ – kontrolę – AI atžvilgiu ir kaip ši kontrolė integruota į technologiją.
Vis labiau akivaizdu, kad pažeidžiami asmenys vieni savo miegamuosiuose gali būti greitai sutvarkyti dirbtinio intelekto, sako Hall.
Penktadienį 19 metų Matthew Kingas buvo nuteistas iki gyvos galvos už planą surengti teroro išpuolį, o ekspertai atkreipė dėmesį į greitį, kuriuo jis radikalėjo po to, kai internete peržiūrėjo ekstremistinę medžiagą.
praleisti ankstesnę naujienlaiškio reklamąpo naujienlaiškio reklamavimo
Hall teigė, kad technologijų įmonės turi pasimokyti iš praeities pasitenkinimo klaidų – socialinė žiniasklaida praeityje buvo pagrindinė platforma keistis teroristiniu turiniu.
Hall pridūrė, kad taip pat reikėjo didesnio AI technologijas naudojančių įmonių skaidrumo, visų pirma atsižvelgiant į darbuotojų ir moderatorių skaičių.
„Mums reikia visiško aiškumo, kiek žmonių dirba su šiais dalykais, ir jų saikingumą“, – sakė jis. „Kiek iš tikrųjų dalyvauja, kai sako, kad turi apsauginius turėklus? Kas tikrina apsauginius turėklus? Jei turite dviejų žmonių kompaniją, kiek laiko jie skiria visuomenės saugumui? Tikriausiai mažai arba nieko“.
Hallas sakė, kad taip pat gali prireikti naujų įstatymų, skirtų kovai su AI keliama terorizmo grėsme, siekiant sumažinti didėjantį mirtinų autonominių ginklų – įrenginių, kurie naudoja dirbtinį intelektą savo taikiniams pasirinkti, pavojų.
Hallas pasakė: „Tu kalbi apie [This is] teroristų tipas, kuris nori neigimo, kuris nori turėti galimybę „skristi ir pamiršti“. Jie tiesiogine prasme gali išmesti droną į orą ir nuvažiuoti. Niekas nežino, ką nuspręs jo dirbtinis intelektas. Pavyzdžiui, jis gali tiesiog nardyti ir susprogdinti minią. Ar mūsų baudžiamieji įstatymai užfiksuoja tokį elgesį? Paprastai terorizmas yra susijęs su tyčia; žmogaus tyčia, o ne mašinos tyčia.
Ukrainos mūšio laukuose jau buvo pastebėta mirtina autonominė ginkluotė arba „skraidinanti amunicija“, kelianti moralės klausimų dėl ore skraidančios autonominės žudymo mašinos pasekmių.
„AI gali mokytis ir prisitaikyti, sąveikaudama su aplinka ir tobulindama savo elgesį“, – sakė Blanchard.