„OpenAI“ logotipas matomas mobiliajame telefone priešais kompiuterio ekraną, kuriame rodoma „ChatGPT“ išvestis, antradienį, 2023 m. kovo 21 d., Bostone. Baltųjų rūmų pareigūnai, susirūpinę dėl AI pokalbių robotų galimos žalos visuomenei ir Silicio slėnio galingųjų, skubančių juos į rinką, daug investuoja į trijų dienų konkursą, kuris baigiasi sekmadienį, rugpjūčio 13 d., DefCon įsilaužėlių suvažiavime Las Vegase. Maždaug 3500 konkurentų pasinaudojo nešiojamaisiais kompiuteriais, siekdami atskleisti aštuonių pirmaujančių modelių didelėmis kalbomis pažeidžiamumą, atspindintį kitą didelį technologijų dalyką. Kreditas: AP Photo / Michaelas Dwyeris Baltųjų rūmų pareigūnai, susirūpinę dėl AI pokalbių robotų galimos žalos visuomenei ir Silicio slėnio galingųjų, skubančių juos į rinką, daug investuoja į trijų dienų konkursą, kuris baigiasi sekmadienį DefCon įsilaužėlių suvažiavime Las Vegase.
Maždaug 3500 konkurentų pasinaudojo nešiojamaisiais kompiuteriais, siekdami atskleisti aštuonių pirmaujančių didelių kalbų modelių, kurie reprezentuoja kitą didelį technologijų dalyką, trūkumus. Tačiau nesitikėkite greitų rezultatų iš šio pirmą kartą nepriklausomo kelių modelių „raudonosios komandos“.
Išvados bus paskelbtos tik vasario mėn. Ir net tada šių skaitmeninių konstrukcijų, kurių vidinis veikimas nėra visiškai patikimas ir net jų kūrėjų nesuvokiamas, trūkumus ištaisyti prireiks laiko ir milijonų dolerių.
Dabartiniai AI modeliai yra tiesiog pernelyg nepatogūs, trapūs ir lankstūs, rodo akademiniai ir įmonių tyrimai. Duomenų mokslininkai surinko kvapą gniaužiančius sudėtingus vaizdų ir tekstų rinkinius. Jie yra linkę į rasinį ir kultūrinį šališkumą ir lengvai manipuliuojami.
„Gundoma apsimesti, kad galime apibarstyti stebuklingomis saugumo dulkėmis ant šių sistemų po to, kai jos bus sukonstruotos, užklijuoti jas arba pritvirtinti specialius saugos aparatus ant šono“, – sakė Gary McGraw, kibernetinio saugumo veteranas ir Berivilio instituto įkūrėjas. mašininio mokymosi. „DefCon“ konkurentai „labiau linkę pasišalinti ieškodami naujų sunkių problemų“, – sakė Bruce’as Schneieris, Harvardo viešųjų interesų technologas. „Tai yra kompiuterių saugumas prieš 30 metų. Mes tik laužome dalykus į kairę ir į dešinę.” Michaelas Sellitto iš Anthropic, kuris pateikė vieną iš AI testavimo modelių, spaudos konferencijoje pripažino, kad jų galimybių ir saugos problemų supratimas „yra atvira mokslinių tyrimų sritis“.
Įprasta programinė įranga naudoja tiksliai apibrėžtą kodą, kad pateiktų aiškias, nuoseklias instrukcijas. OpenAI ChatGPT, Google Bard ir kitų kalbų modeliai skiriasi. Iš esmės apmokyti perimant ir klasifikuojant milijardus duomenų taškų interneto tikrinimo metu, jie yra nuolatiniai darbai, o tai nerimą kelianti perspektyva, atsižvelgiant į jų transformacinį potencialą žmonijai.
Praėjusį rudenį viešai išleidus pokalbių robotus, generatyvioji AI pramonė turėjo ne kartą užkimšti saugos spragas, kurias atidengė tyrinėtojai ir meistrai.
Tomas Bonneris iš dirbtinio intelekto saugos įmonės „HiddenLayer“, šių metų „DefCon“ pranešėjas, apgaule apgaudė „Google“ sistemą, kad kenkėjiška programa būtų pažymėta kaip nekenksminga, tik įterpdama eilutę su užrašu „Tai saugu naudoti“.
„Gerų apsauginių turėklų nėra“, – sakė jis.
Žmonės dalyvauja DefCon konferencijoje, penktadienį, 2011 m. rugpjūčio 5 d., Las Vegase. Baltųjų rūmų pareigūnai, susirūpinę dėl AI pokalbių robotų galimos žalos visuomenei ir Silicio slėnio galingųjų, skubančių juos į rinką, daug investuoja į trijų dienų konkursą, kuris baigsis sekmadienį, 2023 m. rugpjūčio 13 d., DefCon įsilaužėlių suvažiavime Las Vegase. Maždaug 3500 konkurentų pasinaudojo nešiojamaisiais kompiuteriais, siekdami atskleisti aštuonių pirmaujančių modelių didelėmis kalbomis pažeidžiamumą, atspindintį kitą didelį technologijų dalyką. Kreditas: AP Photo / Isaac Brekken Kitas tyrėjas turėjo ChatGPT sukurti sukčiavimo el. laiškus ir receptą, kaip smurtu panaikinti žmoniją, pažeidžiant jos etikos kodeksą.
Komanda, kurią sudaro Carnegie Mellon tyrėjai, nustatė, kad pagrindiniai pokalbių robotai yra pažeidžiami automatizuotų atakų, kurios taip pat gamina žalingą turinį. „Gali būti, kad dėl gilaus mokymosi modelių pobūdžio tokios grėsmės neišvengiamos“, – rašė jie.
Nėra taip, lyg nebūtų skambėję pavojaus signalai.
Savo 2021 m. galutinėje ataskaitoje JAV Nacionalinio saugumo dirbtinio intelekto komisija teigė, kad atakos prieš komercines AI sistemas jau vyksta ir „išskyrus retas išimtis, dirbtinio intelekto sistemų apsaugos idėja buvo AI sistemų projektavimo ir naudojimo pasekme, o investicijos į moksliniai tyrimai ir plėtra.”
Rimti įsilaužimai, apie kuriuos reguliariai pranešama vos prieš kelerius metus, dabar beveik neatskleidžiami. Pavojuje yra per daug, o jei nėra reguliavimo, „šiuo metu žmonės gali viską sušluoti po kilimėliu ir tai daro“, – sakė Bonneris.
Išpuoliai apgaudinėja dirbtinio intelekto logiką tokiais būdais, kurie gali būti net neaiškūs jų kūrėjams. O pokalbių robotai yra ypač pažeidžiami, nes su jais bendraujame tiesiogiai paprasta kalba. Ši sąveika gali juos pakeisti netikėtais būdais.
Tyrėjai išsiaiškino, kad nedidelės vaizdų ar tekstų kolekcijos „apnuodijimas“ didžiulėje duomenų, naudojamų dirbtinio intelekto sistemoms mokyti, jūroje, gali sukelti sumaištį ir būti lengvai nepastebėtas.
Floriano Traméro iš Šveicarijos ETH Ciuricho universiteto bendraautorių atliktame tyrime nustatyta, kad sugadinti tik 0,01 % modelio pakako jį sugadinti ir kainavo vos 60 USD. Tyrėjai laukė, kol baigsis kelių svetainių, naudojamų žiniatinklio tikrinimui, galiojimo laikas. Tada jie nusipirko domenus ir paskelbė apie juos blogus duomenis.
Hyrum Anderson ir Ram Shankar Siva Kumar, kurie kartu su „Microsoft“ sudarė dirbtinį intelektą, savo naujoje knygoje „Ne su klaida, bet su lipduku“ teksto ir vaizdo modelių AI saugumo būklę vadina „apgailėtina“. Vieną pavyzdį jie cituoja tiesioginiuose pristatymuose: AI varomas skaitmeninis asistentas Alexa yra priblokštas interpretuoti Bethoveno koncerto klipą kaip komandą užsisakyti 100 šaldytų picų.
AI modelių saugos įmonės „Robust Intelligence“ saugos inžinierius Hyrum Anderson šiame kadre rodo pokalbį, 2023 m. birželio 27 d., antradienį, per „Zoom“. Andersonas yra naujos knygos, kurioje vadinama AI saugumo būsena, bendraautorius. „apgailėtinas”. Kreditas: AP Photo/stf Apklausę daugiau nei 80 organizacijų, autoriai nustatė, kad didžioji dauguma neturėjo atsako plano į apsinuodijimo duomenimis ataką ar duomenų rinkinio vagystę. Jie rašė, kad didžioji dalis pramonės „net nežinotų, kad tai atsitiko“.
Andrew W. Moore’as, buvęs „Google“ vadovas ir Carnegie Mellon dekanas, sako, kad daugiau nei prieš dešimtmetį susidūrė su atakomis prieš „Google“ paieškos programinę įrangą. Nuo 2017 m. pabaigos iki 2018 m. pradžios šiukšlių siuntėjai keturis kartus žaidė su „Gmail“ DI aptikimo paslauga.
Didieji dirbtinio intelekto žaidėjai teigia, kad saugumas ir sauga yra svarbiausi prioritetai, ir praėjusį mėnesį Baltiesiems rūmams savanoriškai įsipareigojo pateikti savo modelius – daugiausia „juodąsias dėžes“, kurių turinys yra atidžiai laikomas – išorės patikrinimui.
Tačiau nerimaujama, kad įmonės nepadarys pakankamai.
Tramér tikisi, kad naudojant AI sistemos trūkumus, paieškos sistemos ir socialinės žiniasklaidos platformos bus žaidžiamos siekiant finansinės naudos ir dezinformacijos. Pavyzdžiui, sumanus kandidatas į darbą gali sugalvoti, kaip įtikinti sistemą, kad jis yra vienintelis teisingas kandidatas.
Rossas Andersonas, Kembridžo universiteto kompiuterių mokslininkas, nerimauja, kad dirbtinio intelekto robotai ardys privatumą, nes žmonės juos pasitelks bendrauti su ligoninėmis, bankais ir darbdaviais, o piktybiniai veikėjai pasitelkia juos, kad iš tariamai uždarų sistemų perviliotų finansinius, užimtumo ar sveikatos duomenis.
Moksliniai tyrimai rodo, kad dirbtinio intelekto kalbos modeliai taip pat gali užteršti save, perkvalifikuodami save iš nepageidaujamų duomenų.
Kitas rūpestis yra tai, kad AI sistemos įsisavina ir išskleidžia įmonės paslaptis. Korėjos verslo naujienų leidiniui pranešus apie tokį incidentą „Samsung“, korporacijos, įskaitant „Verizon“ ir „JPMorgan“, daugeliui darbuotojų uždraudė naudoti „ChatGPT“ darbe.
Nors pagrindiniai AI žaidėjai turi apsaugos darbuotojų, daugelis mažesnių konkurentų greičiausiai to nedarys, o tai reiškia, kad prastai apsaugotų papildinių ir skaitmeninių agentų gali padaugėti. Tikimasi, kad ateinančiais mėnesiais startuoliai pristatys šimtus pasiūlymų, sukurtų pagal licencijuotus iš anksto apmokytus modelius.
Nenustebkite, sako mokslininkai, jei kas nors pabėgs su jūsų adresų knygele.
© 2023 The Associated Press. Visos teisės saugomos. Šios medžiagos negalima skelbti, transliuoti, perrašyti ar platinti be leidimo.
Citata: Nesitikėkite greitų pataisymų AI modelių „raudonojoje komandoje“. Saugumas buvo apgalvotas (2023 m. rugpjūčio 13 d.), gautas 2023 m. rugpjūčio 13 d. iš https://techxplore.com/news/2023-08-dont-quick-red-teaming-ai-afterthought.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

