Šios savaitės AI saugos aukščiausiojo lygio susitikime dalyvavęs aukšto rango pramonės veikėjas teigia, kad sutelkiant dėmesį į pasaulio pabaigos scenarijus dirbtinio intelekto srityje, tai blaško dėmesį, mažinančią tiesioginę riziką, pvz., plataus masto dezinformacijos generavimą.
Aidanas Gomezas, tyrimo dokumento, padėjusio sukurti pokalbių robotų technologiją, bendraautorius, teigė, kad ilgalaikės rizikos, pvz., AI keliamos egzistencinės grėsmės žmonijai, turėtų būti „ištirtos ir ieškomos“, tačiau jos gali nukreipti politikus nuo tiesioginio potencialo. kenkia.
„Manau, kad kalbant apie egzistencinę riziką ir viešąją politiką, tai nėra produktyvus pokalbis“, – sakė jis. „Kalbant apie viešąją politiką ir kur turėtume sutelkti dėmesį į viešąjį sektorių – arba bandydami sumažinti civiliams gyventojams kylančią riziką – manau, kad tai atitraukia dėmesį nuo rizikos, kuri yra daug labiau apčiuopiama ir tiesioginė.
Gomezas dalyvauja dviejų dienų aukščiausiojo lygio susitikime, kuris prasidės trečiadienį, būdamas Šiaurės Amerikos bendrovės „Cohere“, gaminančios dirbtinio intelekto įrankius įmonėms, įskaitant pokalbių robotus, vadovas. 2017 m., būdamas 20 metų, Gomezas priklausė „Google“ tyrėjų komandai, kuri sukūrė „Transformerį“ – pagrindinę technologiją, skirtą dideliems kalbų modeliams, naudojantiems dirbtinio intelekto įrankius, tokius kaip pokalbių robotai.
Gomezas teigė, kad dirbtinis intelektas – kompiuterinių sistemų, kurios gali atlikti užduotis, paprastai susijusias su protingomis būtybėmis, terminas – jau buvo plačiai naudojamas, todėl aukščiausiojo lygio susitikime reikėtų sutelkti dėmesį į šias programas. Pokalbių robotai, tokie kaip „ChatGPT“, ir vaizdo generatoriai, tokie kaip „Midjourney“, pribloškė visuomenę savo gebėjimu sukurti patikimą tekstą ir vaizdus iš paprastų teksto raginimų.
„Ši technologija jau yra milijardo vartotojų produktų, pvz., Google ir kituose. Tai kelia daugybę naujų pavojų, kuriuos reikia aptarti, nė vienas iš jų nėra egzistencinis, nė vienas iš jų nėra pasaulio pabaigos scenarijus“, – sakė Gomezas. „Turėtume sutelkti dėmesį į tuos kūrinius, kurie turės įtakos žmonėms arba aktyviai veikia žmones, o ne galbūt labiau akademinę ir teorinę diskusiją apie ilgalaikę ateitį.
Gomezas teigė, kad dezinformacija – klaidinančios ar neteisingos informacijos sklaida internete – buvo pagrindinis jo rūpestis. „Man labiausiai rūpi dezinformacija“, – sakė jis. „Šie [AI] modeliai gali sukurti mediją, kuri yra itin įtikinama, labai patraukli, praktiškai nesiskirianti nuo žmogaus sukurto teksto ar vaizdų ar medijų. Ir tai yra kažkas, ką turime labai skubiai spręsti. Turime išsiaiškinti, kaip suteiksime visuomenei galimybę atskirti šias skirtingas žiniasklaidos rūšis.
Meno kūrinių, neseniai sukurtų naudojant AI įrankius ir paskelbtų socialinėje žiniasklaidoje, pavyzdžiai. Sudėtis: AI per Twitter naudotojus Pop Base / Eliot Higgins / Cam HarlessViršūnių susitikimo atidarymo dieną vyks diskusijos įvairiais dirbtinio intelekto klausimais, įskaitant su dezinformacija susijusias problemas, tokias kaip rinkimų sutrikimas ir socialinio pasitikėjimo erozija. Antrąją dieną, kurioje dalyvaus mažesnė šalių grupė, Rishi Sunak sušaukti ekspertai ir technologijų vadovai, aptars, kokių konkrečių veiksmų galima imtis siekiant sumažinti AI riziką. Tarp susirinkusiųjų dalyvaus ir JAV viceprezidentė Kamala Harris.
Gomezas, kuris apibūdino viršūnių susitikimą kaip „tikrai svarbų“, sakė, kad jau „labai tikėtina“, kad robotų armija – programinė įranga, atliekanti pasikartojančias užduotis, pavyzdžiui, skelbianti skelbimus socialinėje žiniasklaidoje, gali skleisti dirbtinio intelekto sukurtą dezinformaciją. „Jei galite tai padaryti, tai yra reali grėsmė demokratijai ir viešam pokalbiui“, – sakė jis.
Daugelyje dokumentų, kuriuose aprašyta DI rizika praėjusią savaitę, įskaitant dirbtinio intelekto sukurtą dezinformaciją ir darbo rinkos sutrikimus, vyriausybė teigė negalinti atmesti galimybės, kad dirbtinio intelekto plėtra pasieks tašką, kai sistemos kelia grėsmę žmonijai.
Praėjusią savaitę paskelbtame rizikos dokumente teigiama: „Atsižvelgiant į didelį neapibrėžtumą numatant AI raidą, nėra pakankamai įrodymų, kad būtų galima atmesti, kad labai pajėgios Frontier AI sistemos, netinkamai suderintos arba netinkamai valdomos, gali kelti egzistencinę grėsmę.
Dokumente priduriama, kad daugelis ekspertų mano, kad tokia rizika yra labai maža ir kad tai reikš, kad bus įvykdyti keli scenarijai, įskaitant pažangią sistemą, kuri įgytų ginklų ar finansų rinkų kontrolę. Susirūpinimas dėl AI keliamos egzistencinės grėsmės daugiausia dėmesio skiria vadinamojo dirbtinio bendro intelekto – dirbtinio intelekto sistemos, galinčios atlikti daugybę užduočių žmogaus arba aukštesnio už žmogaus intelekto lygmeniu – terminas, kuris teoriškai galėtų pasikartoti, išvengti. žmogaus kontrolę ir priimti sprendimus, prieštaraujančius žmonių interesams.
Dėl šių nuogąstavimų kovo mėn. buvo paskelbtas atviras laiškas, kurį pasirašė daugiau nei 30 000 technologijų profesionalų ir ekspertų, įskaitant Eloną Muską, raginantį padaryti šešių mėnesių pertrauką milžiniškuose AI eksperimentuose.
Du iš trijų šiuolaikinių dirbtinio intelekto „krikštatėvių“, Geoffrey Hintonas ir Yoshua Bengio, gegužės mėnesį pasirašė kitą pareiškimą, įspėjantį, kad AI išnykimo pavojaus išvengimas turėtų būti vertinamas taip pat rimtai, kaip pandemijų ir branduolinio karo grėsmė. Tačiau Yann LeCun, jų kolega „krikštatėvis“ ir ACM Turing apdovanojimo, laikomo Nobelio premija skaičiavimo srityje, vienas iš laureatų, apibūdino baimes, kad dirbtinis intelektas gali sunaikinti žmoniją, kaip „beprotišką“.
„Facebook“ patronuojančios bendrovės „Meta“ vyriausiasis dirbtinio intelekto mokslininkas LeCunas sakė Finansiniai laikai šį mėnesį, kad AI galėtų pasiekti žmogaus lygio intelektą, prireiks daugybės „konceptualių proveržių“ – tašką, kai sistema gali išvengti žmogaus kontrolės. LeCunas pridūrė: „Protas neturi nieko bendra su noru dominuoti. Tai net netiesa žmonėms“.