Elono Musko ir tūkstančių kitų pasirašytas laiškas, kuriame reikalaujama pristabdyti dirbtinio intelekto tyrimus, sukėlė audrą, kai laiške nurodyti tyrėjai pasmerkė jo naudojimą savo darbu, kai kurie pasirašiusieji buvo atskleisti kaip netikri.
Kovo 22 d. daugiau nei 1800 signatarų, įskaitant Muską, kognityvinį mokslininką Gary’į Marcusą ir „Apple“ įkūrėją Steve’ą Wozniaką, paragino padaryti šešių mėnesių pertrauką kuriant sistemas, „galingesnes“ nei GPT-4. Inžinieriai iš „Amazon“, „DeepMind“, „Google“, „Meta“ ir „Microsoft“ taip pat palaikė.
GPT-4, sukurtas OpenAI, bendrovės, kurią bendrai įkūrė Muskas, o dabar remia Microsoft, GPT-4 sukūrė galimybę palaikyti žmogiškus pokalbius, kurti dainas ir apibendrinti ilgus dokumentus. Tokios dirbtinio intelekto sistemos, turinčios „žmonių konkurencinį intelektą“, kelia didelį pavojų žmonijai, teigiama laiške.
„AI laboratorijos ir nepriklausomi ekspertai turėtų pasinaudoti šia pauze, kad kartu sukurtų ir įgyvendintų bendrų saugos protokolų rinkinį, skirtą pažangiam dirbtinio intelekto projektavimui ir plėtrai, kuriuos griežtai tikrina ir prižiūri nepriklausomi išorės ekspertai“, – sakoma laiške.
Institutas „Gyvenimo ateitis“ – tyrimų centras, koordinavęs pastangas, citavo 12 ekspertų, įskaitant universitetų akademikus, dabartinius ir buvusius OpenAI, Google ir jos dukterinės įmonės DeepMind darbuotojus, tyrimų. Tačiau keturi laiške minimi ekspertai išreiškė susirūpinimą, kad jų tyrimai buvo naudojami tokiems teiginiams pateikti.
Iš pradžių laiške trūko pasirašymo patvirtinimo protokolų ir buvo surinkti parašai iš žmonių, kurie jo nepasirašė, įskaitant Xi Jinpingą ir „Meta“ vyriausiąjį AI mokslininką Yanną LeCuną, kuris socialiniame tinkle „Twitter“ paaiškino, kad jam nepritaria.
Kritikai apkaltino „Future of Life Institute“ (FLI), kurį daugiausia finansuoja Musko fondas, teikiant pirmenybę įsivaizduojamiems apokaliptiniams scenarijams, o ne labiau susirūpinusiems dirbtiniu intelektu, pavyzdžiui, mašinose užprogramuotam rasistiniam ar seksistiniam šališkumui.
Tarp cituojamų tyrimų buvo „Apie stochastinių papūgų pavojų“ – gerai žinomas dokumentas, kurio bendraautorė Margaret Mitchell, kuri anksčiau prižiūrėjo etinius AI tyrimus „Google“. Mitchellas, dabar dirbantis dirbtinio intelekto įmonės Hugging Face vyriausiasis etikos mokslininkas, sukritikavo laišką ir sakė Reuters, kad neaišku, kas laikoma „galingesniu už GPT4“.
„Daugelis abejotinų idėjų traktuojami kaip konkretūs, laiške nurodomi prioritetai ir pasakojimas apie AI, kuris naudingas FLI rėmėjams“, – sakė ji. „Dabar nepaisyti aktyvios žalos yra privilegija, kurios kai kurie iš mūsų neturi.
Jos bendraautoriai Timnit Gebru ir Emily M Bender sukritikavo laišką socialiniame tinkle „Twitter“, o pastaroji kai kuriuos jo teiginius pavadino „nepagrįstais“. Konektikuto universiteto docentė Shiri Dori-Hacohen taip pat nesutiko, kad laiške būtų paminėtas jos darbas. Praėjusiais metais ji bendraautorė moksliniam darbui, kuriame teigiama, kad plačiai paplitęs AI naudojimas jau kelia rimtą pavojų.
Jos tyrimas teigė, kad dabartinis AI sistemų naudojimas gali turėti įtakos sprendimų, susijusių su klimato kaita, branduoliniu karu ir kitomis egzistencinėmis grėsmėmis, priėmimui.
Ji sakė „Reuters“: „AI nereikia pasiekti žmogaus lygio žvalgybos, kad padidintų šią riziką“.
„Yra neegzistencinės rizikos, kurios yra tikrai labai svarbios, tačiau nesulaukia tokio paties Holivudo lygio dėmesio.
FLI prezidentas Maxas Tegmarkas, paprašytas pakomentuoti kritiką, sakė, kad tiek trumpalaikę, tiek ilgalaikę AI riziką reikia vertinti rimtai. „Jei ką nors cituojame, tai tiesiog reiškia, kad tvirtiname, kad jie pritaria šiam sakiniui. Tai nereiškia, kad jie patvirtina laišką arba mes pritariame viskam, ką jie galvoja“, – sakė jis „Reuters“.