Sam Altman, OpenAI, bendrovės, sukūrusios prieštaringai vertinamą dirbtinio intelekto programą ChatGPT, generalinis direktorius perspėjo, kad ši technologija kelia realių pavojų, nes keičia visuomenę.
37 metų Altmanas pabrėžė, kad reguliavimo institucijos ir visuomenė turi būti įtrauktos į technologijas, kad apsisaugotų nuo galimų neigiamų pasekmių žmonijai. „Turime būti atsargūs“, – ketvirtadienį ABC News sakė Altmanas ir pridūrė: „Manau, kad žmonės turėtų būti laimingi, kad mes to šiek tiek bijome.
„Esu ypač susirūpinęs, kad šie modeliai gali būti naudojami plataus masto dezinformacijai“, – sakė Altmanas. „Dabar, kai jie vis geriau rašo kompiuterio kodą, [they] galėtų būti panaudotas puolamoms kibernetinėms atakoms“.
Tačiau nepaisant pavojų, pasak jo, tai taip pat gali būti „didžiausia žmonijos iki šiol sukurta technologija“.
Įspėjimas buvo paskelbtas, kai OpenAI išleido naujausią savo kalbos AI modelio GPT-4 versiją, praėjus mažiau nei keturiems mėnesiams nuo pirminės versijos išleidimo ir tapo greičiausiai augančia vartotojų programa istorijoje.
Interviu dirbtinio intelekto inžinierius sakė, kad nors naujoji versija buvo „netobula“, JAV ji surinko 90% balų iš advokatūros egzaminų ir beveik tobulą vidurinės mokyklos SAT matematikos testą. Jis taip pat gali parašyti kompiuterio kodą daugeliu programavimo kalbų, sakė jis.
Baimės dėl vartotojų susiduriančio dirbtinio intelekto ir apskritai dirbtinio intelekto daugiausia dėmesio skiria tai, kad žmones pakeičia mašinos. Tačiau Altmanas atkreipė dėmesį į tai, kad dirbtinis intelektas veikia tik vadovaujamas arba įvesties iš žmonių.
„Jis laukia, kol kas nors duos įnašą“, – sakė jis. „Tai įrankis, kurį labai daug valdo žmogus. Tačiau jis teigė nerimaujantis dėl to, kurie žmonės gali valdyti įvestį.
„Bus ir kitų žmonių, kurie nesilaikys kai kurių mūsų nustatytų saugos ribų“, – pridūrė jis. „Manau, kad visuomenė turi ribotą laiko tarpą išsiaiškinti, kaip į tai reaguoti, kaip tai reguliuoti, kaip su tuo susitvarkyti.
Daugelis „ChatGPT“ vartotojų susidūrė su mašina, kurios atsakymai yra gynybiniai iki paranojiškos. Televizijos žinių skyriui pasiūlytuose bandymuose GPT-4 atliko testą, kurio metu iš šaldytuvo turinio išrado receptus.
Tesla generalinis direktorius Elonas Muskas, vienas pirmųjų investuotojų į OpenAI, kai ji dar buvo ne pelno įmonė, ne kartą perspėjo, kad AI arba AGI – dirbtinis bendrasis intelektas – yra pavojingesni už branduolinį ginklą.
Muskas išreiškė susirūpinimą, kad „Microsoft“, savo „Bing“ paieškos sistemoje priglobianti „ChatGPT“, išformavo savo etikos priežiūros skyrių. „Nėra reguliuojamos dirbtinio intelekto priežiūros, o tai yra *pagrindinė* problema. Aš raginu dirbtinio intelekto saugos reguliavimą daugiau nei dešimtmetį! Muskas tviteryje paskelbė gruodį. Šią savaitę Muskas nerimavo, taip pat socialiniame tinkle „Twitter“, kuris jam priklauso: „Ką mums, žmonėms, beliks daryti?
Ketvirtadienį Altmanas pripažino, kad naujausioje versijoje naudojamas dedukcinis samprotavimas, o ne įsiminimas – procesas, galintis sukelti keistų atsakymų.
„Labiausiai stengiuosi įspėti žmones tai, ką mes vadiname „haliucinacijų problema“, – sakė Altmanas. „Modelis užtikrintai teigs dalykus taip, lyg tai būtų visiškai išgalvoti faktai.
„Teisingas būdas galvoti apie mūsų kuriamus modelius yra samprotavimo variklis, o ne faktų duomenų bazė“, – pridūrė jis. Nors ši technologija galėtų veikti kaip faktų duomenų bazė, jis sakė: „Jos iš tikrųjų nėra ypatingos – mes norime, kad jie darytų kažką artimesnio gebėjimui samprotauti, o ne įsiminti“.
Tai, ką gausite, priklauso nuo to, ką įdėsite, neseniai perspėjo „The Guardian“, analizuodamas „ChatGPT“. „Mes nusipelnėme geresnių įrankių, naudojamų, naudojamų žiniasklaidos ir bendruomenių, kuriose gyvename, ir gausime tai, ko nusipelnėme, tik tada, kai galėsime visapusiškai jose dalyvauti.