Izraelio istorikas ir rašytojas Yuvalis Noah Harari sakė, kad dirbtinio intelekto robotų, kurie apsimetė žmonėmis, kūrėjams turėtų būti skirta griežta baudžiamoji bausmė, panaši į tuos, kurie prekiauja padirbta valiuta.
Jis taip pat paragino taikyti sankcijas, įskaitant įkalinimo bausmes, technologijų įmonių vadovams, kurie nesisaugo nuo netikrų profilių savo socialinės žiniasklaidos platformose.
Kreipdamasis į JT AI for Good pasaulinį viršūnių susitikimą Ženevoje, Sapiens ir Home Deus autorius teigė, kad netikrų žmonių paplitimas gali sukelti visuomenės pasitikėjimo ir demokratijos žlugimą.
„Dabar pirmą kartą istorijoje įmanoma sukurti netikrus žmones – milijardus netikrų žmonių“, – sakė jis. „Jei tai bus leista, tai padarys visuomenei tai, ką netikri pinigai grasino padaryti finansų sistemai. Jei negali žinoti, kas yra tikras žmogus, pasitikėjimas žlugs.
„Galbūt santykiai kažkaip susitvarkys, bet ne demokratija“, – pridūrė Harari.
„ChatGPT“ ir kitų didelių kalbų modelių atsiradimas reiškia, kad dirbtinio intelekto robotai gali ne tik sustiprinti žmogaus turinį, bet ir dirbtinai generuoti savo turinį dideliu mastu.
„Kas atsitiks, jei turite socialinės žiniasklaidos platformą, kurioje… milijonai robotų gali sukurti turinį, kuris daugeliu atžvilgių yra pranašesnis už tai, ką gali sukurti žmonės – įtikinamesnį ir patrauklesnį“, – sakė jis. „Jei leisime tai įvykti, žmonės visiškai prarado viešo pokalbio kontrolę. Demokratija taps visiškai neveikianti.
Anot jo, dalis sprendimo turėtų būti griežtų baudžiamųjų bausmių įvedimas tiems, kurie kuria robotus ir apipila viešus forumus dirbtinai sukurtu turiniu.
„Sukurti netikrus pinigus – ar tai būtų monetos, ar banknotai – labai lengva“, – sakė jis. „Siekdamos apsaugoti finansų sistemą, vyriausybės turi labai griežtas taisykles, skirtas kovoti su padirbtais pinigais.
Jei technologijų kompanijų būtų reikalaujama imtis atsakomųjų priemonių arba jiems grėstų 20 metų kalėjimo bausmė, jis prognozavo, kad jos „greitai suras būdų, kaip užkirsti kelią platformoms perpildyti netikrų žmonių“.
Harari taip pat paragino daugiau investuoti į dirbtinio intelekto saugą, teigdamas, kad įmonės turėtų teisiškai įpareigoti 20 % investicijų skirti rizikos ir jų valdymo būdų tyrimui.
Harari komentarai po to, kai ketvirtadienį „ChatGPT“ kūrėja OpenAI paskelbė, kad ji skirs 20% savo skaičiavimo galios dirbtinio intelekto saugai, įskaitant tyrėjų komandos, skirtos suprasti, kaip valdyti ir valdyti DI, ir neleisti jam sukčiauti.
„Turime daug daugiau investuoti į saugą ir reguliavimą“, – sakė Harari.

