Mokslininkas, parašęs svarbų laišką, kuriame raginama sustabdyti galingų dirbtinio intelekto sistemų kūrimą, teigė, kad technologijų vadovai nesustabdė savo darbo, nes yra užrakinti „lenktynėse į dugną“.
Maxas Tegmarkas, vienas iš Future of Life instituto įkūrėjų, kovo mėnesį surengė atvirą laišką, ragindamas padaryti šešių mėnesių pertrauką kuriant milžiniškas AI sistemas.
Nepaisant paramos iš daugiau nei 30 000 pasirašiusiųjų, įskaitant Eloną Muską ir „Apple“ įkūrėją Steve’ą Wozniaką, dokumentas nesugebėjo užtikrinti pertraukos kuriant ambicingiausias sistemas.
Praėjus šešiems mėnesiams kalbėdamas su „The Guardian“, Tegmarkas teigė nesitikėjęs, kad šis laiškas sustabdys technologijų įmones, siekiančias sukurti galingesnius dirbtinio intelekto modelius nei GPT-4, didžiulį kalbos modelį, kuris veikia ChatGPT, nes konkurencija tapo tokia intensyvi.
„Jaučiau, kad privačiai nori daug įmonių vadovų, su kuriais kalbėjausi [a pause] bet jie buvo įstrigę šiose lenktynėse iki dugno vienas prieš kitą. Taigi nė viena įmonė negali sustoti viena“, – sakė jis.
Laiške buvo įspėta apie „nekontroliuojamų lenktynių“, skirtų ugdyti protus, kurių niekas negali „suprasti, nuspėti ar patikimai kontroliuoti“, ir raginama vyriausybes įsikišti, jei nepavyks moratoriumo kurti galingesnes nei GPT-4 sistemas. susitarė tarp pirmaujančių AI įmonių, tokių kaip „Google“, „ChatGPT“ savininkas „OpenAI“ ir „Microsoft“.
Jame buvo klausiama: „Ar turėtume ugdyti nežmoniškus protus, kurie ilgainiui gali būti didesni, pergudrūs, pasenę ir pakeisti mus? Ar turėtume rizikuoti prarasti savo civilizacijos kontrolę?
Tegmarkas, Masačusetso technologijos instituto fizikos profesorius, sakė, kad laišką laikė sėkmingu.
„Laiškas turėjo didesnį poveikį, nei aš maniau, kad jis turės“, – sakė jis, atkreipdamas dėmesį į politinį pabudimą dirbtinio intelekto srityje, įskaitant JAV Senato klausymus su technologijų vadovais ir JK vyriausybę, lapkričio mėn. sušaukusią pasaulinį viršūnių susitikimą dirbtinio intelekto saugos klausimais.
Tegmarkas sakė, kad nuo tada, kai buvo paskelbtas laiškas, susirūpinimas dėl dirbtinio intelekto tapo tabu ir tapo visuotine nuomone. Po jo laiško gegužę buvo paskelbtas AI saugos centro, remiamo šimtų technologijų vadovų ir akademikų, pareiškimas, kuriame teigiama, kad AI turėtų būti laikoma visuomenei pavojinga pandemijomis ir branduoliniu karu.
„Pajutau, kad buvo daug užgniaužto nerimo dėl DI diegimo, kurį žmonės visame pasaulyje bijojo išreikšti, bijodami pasirodyti baimę keliančiais luditais. Laiškas įteisino kalbėjimą apie tai; laiškas padarė jį socialiai priimtinu.
„Taigi jūs sulaukiate tokių žmonių kaip [letter signatory] Yuval Noah Harari tai sakydamas, jūs pradėjote priversti politikus užduoti sunkius klausimus“, – sakė Tegmarkas, kurio ekspertų grupė tiria egzistencines grėsmes ir galimą pažangiausių technologijų naudą.
Baimės, susijusios su AI kūrimu, svyruoja nuo tiesioginių, pavyzdžiui, galimybės generuoti netikrus vaizdo įrašus ir masiškai gaminti dezinformaciją, iki egzistencinės rizikos, kurią kelia itin intelektualūs AI, kurie vengia žmogaus kontrolės arba priima negrįžtamus ir labai reikšmingus sprendimus.
praleisti ankstesnę naujienlaiškio reklamąpo naujienlaiškio reklamavimo
Tegmarkas perspėjo, kad skaitmeninio „dievo tipo bendrojo intelekto“ vystymasis nereikštų ilgalaikės grėsmės, nurodydamas kai kuriuos dirbtinio intelekto specialistus, kurie mano, kad tai gali įvykti per kelerius metus.
Švedų kilmės amerikiečių mokslininkas sakė, kad lapkričio mėn. JK AI saugos viršūnių susitikimas, vyksiantis Bletchley parke, buvo „nuostabus dalykas“. Jo ekspertų grupė teigė, kad aukščiausiojo lygio susitikime turėtų būti siekiama trijų laimėjimų: bendro supratimo apie AI keliamos rizikos rimtumą; pripažįstant, kad reikalingas vieningas pasaulinis atsakas; ir suvokia būtinybę skubiai įsikišti vyriausybei.
Jis pridūrė, kad vis dar reikia padaryti pertrauką, kol bus įvykdyti visuotiniai sutarti saugos standartai. „Kad modeliai būtų galingesni nei dabar, tai turi būti sustabdyta, kol jie atitiks sutartus saugos standartus. Jis pridūrė: „Susitarimas, kokie yra saugos standartai, natūraliai sukels pauzę“.
Tegmarkas taip pat paragino vyriausybes imtis veiksmų dėl atvirojo kodo AI modelių, kuriuos gali pasiekti ir pritaikyti visuomenės nariai. Marko Zuckerbergo „Meta“ neseniai išleido atvirojo kodo didelės kalbos modelį, pavadintą „Llama 2“, ir vienas JK ekspertas jį perspėjo, kad toks žingsnis yra panašus į „žmonėms suteiktą šabloną sukurti branduolinę bombą“.
„Pavojingos technologijos neturėtų būti atvirojo kodo, nesvarbu, ar tai biologinis ginklas, ar programinė įranga“, – sakė Tegmarkas.

