Pasaulio lyderių aukščiausiojo lygio susitikimo diskusijose vyraus susirūpinimas, kad nusikaltėliai ar teroristai gali panaudoti dirbtinį intelektą masiniam naikinimui, nes Dauningstryte auga susirūpinimas dėl naujos kartos technologijų pažangos galios.
Didžiosios Britanijos pareigūnai keliauja po pasaulį prieš lapkritį įvyksiantį AI saugos viršūnių susitikimą, siekdami pasiekti sutarimą dėl bendro pareiškimo, kuriame būtų įspėjama apie pavojų, kylantį dėl nesąžiningų veikėjų, naudojančių šią technologiją, kad sukeltų didelio masto mirtį.
Kai kurie ministro pirmininko Rishi Sunak aplinkiniai nerimauja, kad technologija greitai bus pakankamai galinga, kad padėtų asmenims sukurti biologinius ginklus arba apskritai išvengti žmogaus kontrolės.
Po pastarųjų diskusijų su aukštaisiais technologijų vadovais pareigūnai vis labiau susirūpino dėl tokių galimybių ir būtinybės jas sušvelninti reguliuojančio reguliavimo. Praėjusią savaitę mokslininkas, parašęs svarbų laišką, kuriame raginama sustabdyti galingų dirbtinio intelekto sistemų kūrimą, sakė, kad technologijų vadovai privačiai sutiko su pertraukos koncepcija, tačiau jautė, kad jie yra įtraukti į AI ginklavimosi lenktynes su konkurentais.
Vienas asmuo, informuotas apie aukščiausiojo lygio susitikimo pokalbius, sakė: „Susitikimo tikslas bus įspėti apie „pasienio AI“ riziką, į ką Dauningstrytas šiuo metu daugiausia dėmesio skiria. „Frontier AI“ yra terminas, naudojamas apibūdinti pažangiausius AI modelius, kurie gali būti pakankamai pavojingi ir kelti pavojų žmogaus gyvybei.
Sunakas jau keletą mėnesių perspėjo apie AI keliamą riziką, ragindamas tarptautinę bendruomenę pritaikyti apsauginius turėklus, kad būtų išvengta piktnaudžiavimo juo.
Penktadienį ministro pirmininko pavaduotojas Oliveris Dowdenas pasaulio lyderiams JT Generalinėje Asamblėjoje pasakė: „Kadangi technologijų įmonės ir nevalstybiniai veikėjai dažnai turi šalies dydžio įtaką ir svarbą dirbtinio intelekto srityje, šis iššūkis reikalauja naujos daugiašališkumo formos“.
Pareigūnus sunerimo dėl naujausių dirbtinio intelekto modelių pokyčių. Praėjusiais metais dirbtinio intelekto įrankis užtruko vos šešias valandas, kad pasiūlytų 40 000 skirtingų potencialiai mirtinų molekulių, kai kurios iš jų buvo panašios į VX – stipriausią kada nors sukurtą nervus paralyžiuojančią medžiagą.
Anksčiau šiais metais mokslininkai nustatė, kad ChatGPT galėjo meluoti žmogui, kad pasiektų konkretų tikslą. Dirbtinio intelekto pokalbių robotas įtikino asmenį išspręsti „Captcha“ įrankį, skirtą robotams internete atsikratyti, po to, kai pasakė žmogui, kad žmogui, turinčiam regėjimo negalią, reikia pagalbos norint pasiekti svetainę.
Vyriausybiniai šaltiniai nerimauja, kad nusikaltėlis ar teroristas gali panaudoti dirbtinį intelektą, kad padėtų jiems išsiaiškinti biologinio ginklo sudedamąsias dalis, prieš siunčiant juos į robotų laboratoriją, kur juos galima sumaišyti ir išsiųsti be jokios žmogaus priežiūros.
Kai kurie mano, kad ši rizika netrukus išaugs eksponentiškai, nes įmonės jau išleidžia šimtus milijonų svarų daug galingesniems procesoriams, kad galėtų išmokyti naujos kartos AI įrankius.
Kitas svarbus susirūpinimą keliantis dalykas yra „dirbtinio bendro intelekto“ atsiradimas, terminas, reiškiantis AI sistemą, galinčią savarankiškai atlikti bet kokią užduotį žmogaus arba virš žmogaus lygmeniu – ir gali kelti egzistencinį pavojų žmonėms. Baiminamasi, kad AGI liko po metų.
Tačiau egzistencinis AGI rizikos metodas taip pat buvo sukritikuotas AI ekspertų, teigdami, kad grėsmė yra pervertinta, dėl to nekreipiama dėmesio į tokias problemas kaip dezinformacija ir kyla pavojus įtvirtinti pirmaujančių technologijų įmonių galią, įvedant reguliavimą, kuris pašalina naujokus. Praėjusią savaitę vienas aukšto rango technologijų vadovas sakė JAV įstatymų leidėjams, kad nekontroliuojamo AGI sąvoka yra „mokslinė fantastika“.
Nepaisant to, Sunak nori pasinaudoti aukščiausiojo lygio susitikimu, kad sutelktų dėmesį į egzistencines rizikas, o ne į tiesiogines galimybes, kurias dirbtinis intelektas gali panaudoti kuriant netikrus vaizdus arba gali sukelti diskriminacinių pasekmių, jei ji naudojama priimant viešosios politikos sprendimus.
Tony Blairo instituto, neseniai paskelbusio AI politikos ataskaitą, vyriausiasis politikos strategas Benedictas Macon-Cooney sakė: „Biologinis saugumas, autonominės ginklų sistemos – tai dalykai, į kuriuos turime užtikrinti, kad gautume atsakymus. Daugelis AI pramonės atstovų politikams sakė, kad tai yra reali rizika. Politikams buvo užduotas klausimas, ir jie turi pateikti atsakymą.
Premjeras taip pat vadovaujasi tuo, kas diplomatiškai įmanoma, teigia šaltiniai.
Viršūnių susitikime turėtų dalyvauti keli pasaulio lyderiai, tarp jų Kanados ministras pirmininkas Justinas Trudeau ir Prancūzijos prezidentas Emmanuelis Macronas. JK pakvietė Kiniją dalyvauti, tačiau svarsto galimybę Pekino pareigūnams dalyvauti tik dalyje viršūnių susitikimo, nerimaujant dėl Kinijos šnipinėjimo Vakarų demokratijose.
Didžiosios Britanijos pareigūnai pastarosiomis dienomis keliavo po pasaulį, kad išbandytų tam tikros formos susitarimo galimybes viršūnių susitikimo pabaigoje. JK nori turėti oficialų pareiškimą, kurį vadovai galėtų pasirašyti vėliau, taip pat įsipareigojimo ateityje surengti kitus tokius aukščiausiojo lygio susitikimus.
Pareigūnų nuomone, geriausias būdas pasiekti susitarimą tarp tokių įvairių šalių yra sutelkti dėmesį į nevalstybinius veikėjus, o ne bandyti diktuoti, kaip šalys kuria savo technologijas.
Dauningstrytas išleidžia 100 mln. svarų sterlingų naujai AI darbo grupei, kuri padėtų išbandyti algoritmus, kai jie kuriami. Didžiosios Britanijos pareigūnai planuoja pasinaudoti aukščiausiojo lygio susitikimu, kad paragintų įmones visame pasaulyje nusiųsti savo dirbtinio intelekto įrankius į JK įvertinti, prieš pradedant juos plačiau naudoti.
Dowdenas penktadienį sakė: „Tik nacionalinės valstybės gali užtikrinti, kad svarbiausi nacionalinio saugumo klausimai buvo išsklaidyti“.
Vyriausybės atstovas sakė, kad dirbtinis intelektas turi „didžiulį potencialą pakeisti kiekvieną mūsų gyvenimo aspektą“, o „Frontier AI“ darbo grupė buvo sukurta siekiant užtikrinti, kad technologija būtų vystoma saugiai ir atsakingai, o AI saugos aukščiausiojo lygio susitikime taip pat nagrinėjama „įvairių galimų pavojų“. .