„ChatGPT“ kūrėjo „OpenAI“ vadovai paragino reguliuoti „superprotingus“ AI, teigdami, kad reikia Tarptautinės atominės energijos agentūros ekvivalento, kad žmonija būtų apsaugota nuo pavojaus netyčia sukurti kažką, galintį jį sunaikinti.
Trumpoje pastaboje, paskelbtoje bendrovės tinklalapyje, įkūrėjai Gregas Brockmanas ir Ilja Sutskeveris bei generalinis direktorius Samas Altmanas ragina tarptautinę reguliavimo instituciją pradėti dirbti, kaip „patikrinti sistemas, reikalauti atlikti auditus, patikrinti, ar laikomasi saugos standartų. , [and] nustatyti diegimo ir saugumo lygių apribojimus“, kad sumažintų „egzistencinę riziką“, kurią gali kelti tokios sistemos.
„Galima įsivaizduoti, kad per ateinančius 10 metų AI sistemos daugumoje sričių viršys ekspertų įgūdžių lygį ir atliks tiek pat produktyvios veiklos, kaip ir viena didžiausių šiandienos korporacijų“, – rašo jie. „Kalbant apie galimus teigiamus ir neigiamus aspektus, superintelektas bus galingesnis nei kitos technologijos, su kuriomis žmonija turėjo kovoti praeityje. Galime turėti daug klestinčią ateitį; bet mes turime valdyti riziką, kad ten patektume. Atsižvelgdami į egzistencinės rizikos galimybę, negalime tiesiog būti reaktyvūs.
Trumpesniu laikotarpiu trijulė reikalauja „tam tikro koordinavimo“ tarp įmonių, dirbančių pažangiausiuose dirbtinio intelekto tyrimuose, siekiant užtikrinti, kad vis galingesnių modelių kūrimas sklandžiai integruotųsi į visuomenę, pirmenybę teikiant saugai. Toks koordinavimas galėtų vykti, pavyzdžiui, įgyvendinant vyriausybės vadovaujamą projektą arba sudarant kolektyvinę sutartį, skirtą apriboti AI pajėgumų augimą.
Tyrėjai dešimtmečius įspėjo apie galimą superintelekto pavojų, tačiau AI plėtrai įsibėgėjus, ši rizika tapo konkretesnė. JAV įsikūręs dirbtinio intelekto saugos centras (CAIS), kurio tikslas – „sumažinti visuomenei tenkančią dirbtinio intelekto keliamą riziką“, aprašomos aštuonios „katastrofinės“ ir „egzistencinės“ rizikos, kurią gali kelti dirbtinio intelekto plėtra, kategorijas.
Nors kai kurie nerimauja dėl galingo dirbtinio intelekto, kuris netyčia ar tyčia visiškai sunaikina žmoniją, CAIS aprašo kitus žalingesnius padarinius. Pasaulis, kuriame dirbtinio intelekto sistemoms savanoriškai perduodama vis daugiau darbo jėgos, gali lemti žmonijos „sugebėjimą savarankiškai valdyti ir tapti visiškai priklausoma nuo mašinų“, apibūdinamą kaip „silpnumą“; ir nedidelė grupė žmonių, valdančių galingas sistemas, galėtų „paversti dirbtinį intelektą centralizuojančia jėga“, o tai lemtų „vertės užraktą“, amžiną kastų sistemą tarp valdomų ir valdovų.
OpenAI vadovai sako, kad ši rizika reiškia, kad „žmonės visame pasaulyje turėtų demokratiškai nuspręsti dėl AI sistemų ribų ir numatytųjų nuostatų“, tačiau pripažįsta, kad „mes dar nežinome, kaip sukurti tokį mechanizmą“. Tačiau jie sako, kad toliau plėtoti galingas sistemas verta rizikuoti.
praleisti ankstesnę naujienlaiškio reklamąpo naujienlaiškio reklamavimo
„Manome, kad tai atves į daug geresnį pasaulį, nei galime įsivaizduoti šiandien (jau matome ankstyvus to pavyzdžius tokiose srityse kaip švietimas, kūrybinis darbas ir asmeninis produktyvumas)“, – rašo jie. Jie įspėja, kad gali būti pavojinga sustabdyti vystymąsi. „Kadangi pranašumai yra tokie didžiuliai, jo statybos sąnaudos kiekvienais metais mažėja, jį statančių veikėjų skaičius sparčiai didėja, o tai iš esmės yra mūsų technologinio kelio dalis. Norint jį sustabdyti, reikėtų kažko panašaus į pasaulinį stebėjimo režimą, ir net tai negarantuojama, kad veiks. Taigi mes turime tai padaryti teisingai.”

