Kreditas: Pixabay / CC0 viešasis domenas Populiarioji spauda ir vartotojai pernelyg lengvai naudojasi „ChatGPT“, sako Johnso Hopkinso universiteto kibernetinio saugumo ir dirbtinio intelekto ekspertas Antonas Dahbura. Anot jo, tokių didelių kalbos modelių, arba LLM, nepatikimumas ir jų išgalvoto bei šališko turinio kūrimas kelia realią ir augančią grėsmę visuomenei.
„Pramonė uždirba daug pinigų iš produktų, kurie, jų žiniomis, yra naudojami neteisingai ir didžiuliu mastu“, – sako Dahbura, Johnso Hopkinso informacijos saugumo instituto direktorius ir Užtikrintos autonomijos instituto vienas iš direktorių. „ChatGPT“ „haliucinacijos“ [the system’s tendency to sometimes generate senseless content] būtų vadinami „gedimais“, jei jų atsirastų kituose plataus vartojimo gaminiuose, pavyzdžiui, jei mano automobilio akceleratorius būtų „haliucinavęs“ ir mane įtrenktų į plytų sieną.
Geresni duomenys, įmonių atskaitomybė ir vartotojų švietimas apie tai, kas yra AI ir kokios yra jos ribos, gali padėti sumažinti riziką, sako Dahbura, „tačiau jie niekada neišnyks problemos iki galo, nebent problema būtų tokia paprasta, kad AI neturėjo būti pirmiausia naudojamas jai išspręsti“.
„Hub“ susėdo su Dahbura ir aptarė neapibrėžtumo dėl didelių kalbų modelių priežastis, vaidmenį, kurį, jo nuomone, turėtų atlikti pramonė ir vyriausybė, mokydamos vartotojus apie dirbtinį intelektą ir jo keliamas rizikas bei grėsmes, kurias šios naujos technologijos gali kelti visuomenei.
ChatGPT ir kitus didelių kalbų modelius pavadinote „šiuolaikine Magic 8 Ball versija“. Paaiškinkite.
Dirbtinis intelektas yra plati sudėtingų problemų sprendimo metodų klasė, kuri neturi lengvų arba „taisyklėmis pagrįstų“ sprendimų. Termostatas yra atsakymas į paprastą problemą: kai temperatūra pakyla virš tam tikros ribos, jis įjungia oro kondicionierių, o kai nukrenta žemiau šios ribos, įjungia šilumą.
Tačiau kartais į klausimus nėra aiškių atsakymų, kuriuos gali išspręsti vien paprastos taisyklės. Pavyzdžiui, mokant dirbtinį intelektą atskirti šunų ir kačių atvaizdus, veiksniai, kuriuos AI sistema naudoja klasifikuodama, yra labai sudėtingi ir retai gerai suprantami. Todėl sunku pateikti garantijas, kaip sistema reaguos į šuns ar katės vaizdą, kurio ji nebuvo išmokyta, ir tuo labiau į oranžinės spalvos atvaizdą. Jis gali net nenuspėjamai reaguoti į vaizdą, pagal kurį buvo išmokytas!
Šią neatskiriamą AI sistemų savybę sukūriau kaip „AI neapibrėžtumo principą“, nes AI problemų sudėtingumas reiškia, kad tikrumas ir DI negali egzistuoti kartu, nebent sprendimas yra toks paprastas, kad jam nereikia dirbtinio intelekto arba taisyklėmis pagrįsto. apsauginiai turėklai, sukurti taip, kad sumažintų nenuspėjamą AI sistemos pobūdį.
Aš sakau, kad neįmanoma išmokyti šių technologijų pagal kiekvieną scenarijų, todėl negalite tiksliai numatyti kiekvieno naudojimo rezultato. Tas pats ir su „Magic 8 Ball“: atsakymas gali būti ne toks, kokio tikitės.
Jūs vadinate įmones neatsakingomis už tai, kad jos neįspėjo žmonių apie LLM potencialą „haliucinuoti“. Ar galėtumėte pasidalinti pavyzdžiu, ką reiškia haliucinacija?
Haliucinacijos reiškia atsakymus, kuriuose yra neteisingos arba įsivaizduojamos informacijos. Yra daugybė haliucinacijų, kurios gali turėti įtakos technologijoms, įskaitant kai kurias, kurios yra gana nekenksmingos, pavyzdžiui, LLM pasakoja pradinių klasių mokinių grupei, kad Saulės sistemoje yra 13 planetų. Šią informaciją lengva patikrinti naudojant greitą „Google“ paiešką, tačiau kita neaiškesnė informacija ar teiginiai, sugeneruoti „ChatGPT“, gali turėti daugiau žalingo poveikio. Vienas iš pavyzdžių yra AI naudojimas vėžiui aptikti remiantis rentgeno spinduliais ar skenavimu. Haliucinacijos gali aptikti vėžį, kurio nėra, arba gali tiesiog neaptikti vėžio, kuris pasirodo nuskaitymo metu. Akivaizdu, kad bet kuris iš šių scenarijų gali būti žalingas.
Nesvarbu, ar užduodate LLM klausimą, ar naudojate jį vaizdui interpretuoti, ar jis yra įmontuotas automobilyje, kuriame lekiate greitkeliu 65 mylių per valandą greičiu, pateikiate jam įvestis ir jis generuoja rezultatus. Kartais tai pavyksta gerai, bet kartais ne. Kai žaidžiate su „Magic 8 Ball“, atsakymas nesvarbus. Tačiau kai kuriais atvejais realiame gyvenime taip yra labai daug.
Papasakokite daugiau apie savo rekomendaciją, kad įmonės ir federalinė vyriausybė turėtų informuoti vartotojus ir vartotojus apie vadinamąjį LLM komponentą „Magic 8 Ball“.
Vartotojai turi būti visapusiškai informuoti apie galimybes ir riziką, susijusią su ChatGPT ir kitais LLM. Kalbame apie rimtas problemas, tokias kaip autonominės automobilių įmonės, naudojančios viešuosius kelius kaip šių technologijų laboratorinių bandymų poligonus. Vairuotojai turėtų žinoti, kad šios transporto priemonės važiuoja tais pačiais keliais.
Manau, kad taip pat yra lūkesčių, kad taip, šie dalykai neveikia, bet jie yra taisomi ir kai tai įvyks, visos šios problemos tiesiog išnyks. Bet problemų visada bus. Haliucinacijos greitai nebus praeitis.
Tačiau problemos, susijusios su „ChatGPT“ ir kitais panašiais modeliais, pagerės, nes šias technologijas kuriančios įmonės ir organizacijos greitai stato apsauginius turėklus. Vis dėlto vartotojai turi išlikti skeptiški. Panaudoti dirbtinį intelektą bus sunku, ir nenorime, kad viskas pablogėtų, kol nepagerės.
Citata: Klausimai ir atsakymai: Ar dideli kalbiniai modeliai yra šiuolaikiniai „Magic 8 Ball“? (2023 m. liepos 17 d.) gauta 2023 m. liepos 18 d. iš https://techxplore.com/news/2023-07-qa-large-language-modern-day-magic.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.