Aistorikas ir autorius Yuvalis Noah Harari teigia, kad dirbtinis intelektas gali sukelti finansinę krizę su „katastrofiškomis“ pasekmėmis.
Harari sakė „The Guardian“, kad susirūpinimas dėl dirbtinio intelekto modelių saugos testavimo numatė visas problemas, kurias gali sukelti galinga sistema. Skirtingai nei su branduoliniais ginklais, nebuvo vieno „didelio, pavojingo scenarijaus“, kurį visi suprastų, sakė jis.
„Kalbant apie dirbtinį intelektą, jūs kalbate apie labai daug pavojingų scenarijų, kurių kiekvienas turi santykinai mažą tikimybę, kurie kartu… kelia egzistencinę grėsmę žmonių civilizacijos išlikimui“.
Sapiens autorius, kuris išreiškė didelį susirūpinimą dėl AI plėtros, sakė, kad praėjusios savaitės daugiašalė deklaracija pasauliniame AI saugos aukščiausiojo lygio susitikime Bletchley parke buvo „labai svarbus žingsnis į priekį“, nes pirmaujančios vyriausybės susirinko išreikšti susirūpinimą dėl technologijos. ir ką nors dėl to padaryti.
„Galbūt labiausiai džiugina arba teikia vilčių tai, kad jie gali priversti ne tik Europos Sąjungą, JK, JAV, bet ir Kinijos vyriausybę pasirašyti deklaraciją“, – sakė jis. „Manau, kad tai buvo labai teigiamas ženklas. Be pasaulinio bendradarbiavimo bus nepaprastai sunku, o gal net neįmanoma, suvaldyti pavojingiausią AI potencialą.
Viršūnių susitikimas baigėsi 10 vyriausybių, įskaitant JK ir JAV, bet ne Kiniją, ES ir didžiųjų AI kompanijų, įskaitant ChatGPT kūrėją OpenAI ir Google, susitarimu bendradarbiauti išbandant pažangius AI modelius prieš ir po jų išleidimo.
Harari teigė, kad viena problema, susijusi su modelių saugos bandymais, buvo visų problemų, kurias gali sukelti galinga sistema, numatymas. „AI skiriasi nuo visų ankstesnių technologijų žmonijos istorijoje, nes tai pirmoji technologija, kuri pati gali priimti sprendimus, kuri pati gali kurti naujas idėjas ir kuri gali mokytis bei vystytis pati. Beveik pagal apibrėžimą žmonėms, net ir žmonėms, kurie sukūrė technologiją, labai sunku numatyti visus galimus pavojus ir problemas.
Harari teigimu, vyriausybės paminėjo AI sistemų, padedančių sukurti biologinius ginklus, grėsmę, kai bandė paaiškinti visuomenei apie jo keliamą pavojų, tačiau buvo galima apsvarstyti ir kitus scenarijus. Autorius atkreipė dėmesį į finansus kaip sektorių, idealiai tinkantį dirbtinio intelekto sistemoms – „tai ideali sritis dirbtiniam intelektui, nes tai tik duomenys“ – ir galimą rimtos dirbtinio intelekto sukeltos krizės šaltinį.
„Kas nutiks, jei dirbtiniam intelektui ne tik bus suteikta didesnė pasaulio finansų sistemos kontrolė, bet ir pradės kurti naujus finansinius įrenginius, kuriuos gali suprasti tik AI, kurių negali suprasti joks žmogus? sakė Harari ir pridūrė, kad 2007–2008 m. finansų krizę sukėlė skolos instrumentai, tokie kaip įkaito skolos įsipareigojimai (CDO), kuriuos mažai kas suprato ir todėl buvo netinkamai reguliuojami.
„AI gali sukurti finansinius įrenginius, kurie yra daug sudėtingesni nei CDO. Ir tik įsivaizduokite situaciją, kai turime finansinę sistemą, kurios joks žmogus nesugeba suprasti ir todėl negali reguliuoti“, – sakė jis. „Ir tada ištinka finansų krizė ir niekas nesupranta, kas vyksta“.
Praėjusį mėnesį JK vyriausybė išreiškė susirūpinimą dėl pažangaus AI modelio, galinčio sukelti egzistencinę grėsmę kontroliuojant ir manipuliuojant finansų sistemomis. Tačiau Harari teigė, kad dirbtinio intelekto sukurta finansinė krizė nesunaikins žmonių civilizacijos – „bent jau ne tiesiogiai“. Jis pridūrė: „Netiesiogiai tai gali sukelti tam tikrus karus ar konfliktus. Tai katastrofiška rizika – ekonominė, socialinė, politinė – bet savaime jos neapibūdinčiau kaip egzistencinę.
praleisti ankstesnę naujienlaiškio reklamąpo naujienlaiškio reklamavimo
Izraelio autorius, parėmęs raginimus padaryti pažangaus AI kūrimo šešių mėnesių pertrauką ir pritariantis tam, kad dirbtinio intelekto įmonės būtų atsakingos už jų gaminiams padarytą žalą, teigė, kad dėmesys turėtų būti sutelktas ne į konkrečias taisykles ir įstatymus, o į reguliavimo institucijas, turinčias žinių apie technologija, kuri gali greitai reaguoti, kai atsiranda naujų atradimų.
„Turime sukurti kuo greitesnes, galingas reguliavimo institucijas, gebančias atpažinti kylančius pavojus ir į juos reaguoti, remdamosi supratimu, kad negalime iš anksto numatyti visų pavojų ir problemų ir iš anksto prieš juos priimti įstatymų. Jis pridūrė: „Tai turėtų būti pagrindinės pastangos, o ne pastangos dabar parašyti kokį nors labai ilgą ir sudėtingą reglamentą, kuris, kol jis bus priimtas parlamente ar kongrese, gali būti pasenęs“.
Kaip dalį šios sąrankos AI saugos institutai turėtų samdyti ekspertus, kurie suprastų galimą AI poveikį finansų pasauliui, sakė Harari.
Praėjusį mėnesį Rishi Sunak paskelbė apie JK dirbtinio intelekto saugos instituto įkūrimą, o po kelių dienų Baltieji rūmai paskelbė apie panašios institucijos planus. Tikimasi, kad abu jie atliks pagrindinį vaidmenį testuojant pažangius AI modelius. Kalbėdamas aukščiausiojo lygio susitikime, Sunakas sakė, kad JK, prieš priimdama teisės aktus dėl jų, pirmiausia turi suprasti pažangių modelių galimybes.