TEuropos Sąjungos dirbtinio intelekto įstatymai, dėl kurių lyderiai galiausiai paskelbė, kad buvo susitarta beveik šeštadienio vidurnaktį, yra tinkami, kad visiškai nustelbtų šešias savaites trukusią Didžiosios Britanijos Bletchley deklaraciją dėl dirbtinio intelekto. Susitarimo dėl visapusių DI reglamentuojančių įstatymų rinkinio tekstas nėra baigtas, o detalėse bus rasta daug velnių, tačiau artėjantis jo pasirodymas rodo esminį pokytį, kaip demokratija gali nukreipti dirbtinį intelektą į visuomenės interesus.
Bletchley deklaracija buvo didžiulis pasiekimas, ypač paskatinus tokias šalis kaip Kinija, Saudo Arabija ir JAE susitarti dėl oficialaus pareiškimo dėl dirbtinio intelekto reguliavimo. Problema ta, kad tai buvo tik toks pareiškimas, neturintis jokios teisinės galios ar vykdymo mechanizmo. Dabar ES imasi veiksmų, kad nustatytų griežtus teisinius reikalavimus dirbtinio intelekto kūrėjams, o kitos šalys turi imtis veiksmų ir išspręsti galvosūkį.
Paskutinė kliūtis, kurią derybininkai įveikė savaitgalį, buvo klausimas, kokie AI naudojimo būdai būtų visiškai uždrausti. Draudžiama praktika apima „kognityvinį elgesio manipuliavimą“ – platų terminą technologijoms, kurios interpretuoja elgesį ir pageidavimus, siekdamos paveikti mūsų sprendimus. Tai taip pat apima „netikslinį veido vaizdų išgryninimą iš interneto arba vaizdo stebėjimo kamerų filmuotos medžiagos“, kurią jau taiko kai kurios bendrovės, parduodančios stebėjimui naudojamas duomenų bazes; „emocijų atpažinimas darbo vietoje ir ugdymo įstaigose“, kurį galėtų panaudoti įmonės, siekdamos drausminti, ranguoti ar mikrovaldyti darbuotojus; „socialinis balas“ – distopinis stebėjimo įrankis, naudojamas Kinijoje, siekiant įvertinti asmenis, atliekančius kasdienę veiklą, ir jiems skirti (arba sulaikyti) „socialinį kreditą“; „biometrinis suskirstymas į kategorijas“ – tai praktika, kai pagal tokias savybes kaip odos atspalvis ar veido struktūra daromos išvados apie lytį, seksualinę orientaciją ar net tikimybę padaryti nusikaltimą; ir „kai kurie nuspėjamosios policijos atvejai asmenims“, kurie jau buvo įrodyta, kad turi rasinį diskriminacinį poveikį.
Tačiau dar lengviau neatsikvėpkite. Lygiai taip pat, kaip klimato krizė yra pasaulinė problema, kurią galima išspręsti tik tada, kai visos šalys sumažins išmetamųjų teršalų kiekį, dirbtinis intelektas yra pasaulinio pobūdžio ir gali būti kontroliuojamas tik bendradarbiaujant daugeliui tautų. Galingos „bendrosios paskirties AI“ (GPAI) sistemos, tokios kaip „ChatGPT“, gali vykdyti suasmenintas dezinformacijos ir manipuliavimo kampanijas, nesant konsensuso intymius vaizdus (NCII, kartais žinomus kaip giliosios klastotės pornografija) ir netgi sukurti biologinių ginklų dizainą.
Jei viena pasaulio dalis juos reguliuoja, o kita išleis neapsaugotas „atvirojo kodo“ šių įrankių versijas, kurias blogi veikėjai gali panaudoti savo nuožiūra, visas pasaulis vis tiek gali patirti pasekmes. Šie blogi veikėjai gali būti Rusijos karinės žvalgybos agentūra GRU arba skaitmeniniai samdiniai (samdomi trolių fermos), kurie gali neturėti lėšų ar technologijų sukurti savo pasaulinio lygio modelius, bet gali gauti galingų dirbtinio intelekto įrankių, sukurtų be jų. šias apsaugos priemones ir panaudoti jas bandant manipuliuoti rinkimais visame pasaulyje.
Deja, planuojamas ES AI aktas nėra tobulas. Nors jame pateikiami pagirtinai griežti GPAI reglamentai, įskaitant „atvirojo kodo“ sistemas, vis dar yra spragų. Pasak vieno Europos Komisijos pareigūno, su kuriuo kalbėjausi, jei kuriant NCII naudojami dirbtinio intelekto įrankiai, pvz., „nurengimo“ programėlės, atrodo, kad atsakomybė gali tekti tik individualiam naudotojui, kurinčiam šį turinį, o ne jį sukūrusiam AI sistemos kūrėjui. Norėčiau, kad kūrėjams būtų uždrausta platinti įrankius, galinčius sukelti tokią galimai nepataisomą žalą, ypač kai vaikai gali būti ir nusikaltėliai, ir aukos.
Kitas susirūpinimas yra tai, kad ES AI aktas visiškai neįsigalios bent iki 2026 m. Kai kurios jo dalys įsigalios greičiau ir yra sukurtas taip, kad būtų „įrodytas ateičiai“, tačiau AI technologija tobulėja taip greitai, kad yra didelė tikimybė, kad technologija aplenks teisės aktus. Tai dar didesnė rizika, jei ES imasi viena priimti dirbtinio intelekto teisės aktus.
Bletchley deklaracija, paskelbta per pirmąjį AI saugos aukščiausiojo lygio susitikimą, buvo svarbi lygiagrečių pastangų, vykstančių G7, G20, JT ir Ekonominio bendradarbiavimo ir plėtros organizacijoje, dalis. 2024 m. Pietų Korėjoje ir Prancūzijoje planuojami tolesni AI saugos aukščiausiojo lygio susitikimai.
Čia pateikiami svarbiausi privalomi reglamentai, kuriuos turi įgyvendinti šie aukščiausiojo lygio susitikimai ir lygiagrečiai vykstantys valdymo procesai. 1) Patvirtinkite aukščiau aprašyto naudojimo draudimą. 2) Tvirtai reguliuoti didelės rizikos AI sistemas, įskaitant GPAI, reikalaujant kruopštaus rizikos įvertinimo, bandymų ir mažinimo priemonių. 3) Reikalauti, kad įmonės apsaugotų savo didelės rizikos GPAI sistemas ir neišleistų jų pagal „atvirojo kodo“ licencijas, nebent nepriklausomi ekspertai nustatytų, kad jos yra saugios. 4) Aiškiai priskirkite atsakomybę GPAI sistemų kūrėjams ir jų diegėjams už jų daromą žalą. 5) Reikalauti, kad dirbtinio intelekto sukurtas turinys būtų „pažymėtas vandens ženklu“ taip, kad jį galėtų lengvai aptikti vartotojai ir ekspertai. 6) Mokydamiesi dirbtinio intelekto sistemų gerbkite kūrėjų, pvz., autorių ir menininkų, autorių teises. Ir galiausiai 7), apmokestinkite dirbtinio intelekto įmones ir naudokite pajamas, kad apsaugotumėte visuomenę nuo bet kokios AI daromos žalos – nuo dezinformacijos iki darbo praradimo.
Užtikrinti, kad dirbtinis intelektas būtų vystomas taip, kad būtų tenkinami visuomenės interesai, yra milžiniška užduotis, kuriai reikės viso pasaulio piliečių ir vyriausybės dalyvavimo. Dabar laikas visiems ir visur gauti išsilavinimą apie AI riziką ir naudą ir reikalauti, kad jūsų išrinkti atstovai rimtai vertintų jos grėsmes. ES pradėjo gerą pradžią; dabar likusi pasaulio dalis turi priimti privalomus teisės aktus, kad dirbtinis intelektas tarnautų jums ir jūsų bendruomenei.
- Davidas Evanas Harrisas yra UC Berkeley kanclerio viešasis mokslininkas, Tarptautinio valdymo inovacijų centro vyresnysis bendradarbis, Tarptautinio kompiuterių mokslo instituto vyresnysis mokslinis bendradarbis ir Vientisumo instituto kviestinis bendradarbis.