Tekstas iš OpenAI svetainės ChatGPT puslapio rodomas šioje nuotraukoje, Niujorke, 2023 m. vasario 2 d. Anthropic, ChatGPT kūrėjas OpenAI ir kiti pagrindiniai AI sistemų, žinomų kaip didelių kalbų modeliai, kūrėjai teigia, kad jie sunkiai dirba kad jie būtų teisingesni. Kreditas: AP Photo / Richardas Drew, failas Praleiskite pakankamai laiko su ChatGPT ir kitais dirbtinio intelekto pokalbių robotais ir neilgai trukus jie išskleis melą.
Apibūdinama kaip haliucinacija, konfabuliacija ar tiesiog išsigalvojimas, dabar tai yra problema kiekvienam verslui, organizacijai ir vidurinės mokyklos mokiniui, bandančiam sukurti generuojančią AI sistemą, kad būtų galima sudaryti dokumentus ir atlikti darbą. Kai kurie ją naudoja vykdydami užduotis, galinčias sukelti didelių pasekmių, nuo psichoterapijos iki teisinių trumpų tyrimų ir rašymo.
„Nemanau, kad šiandien yra koks nors modelis, kuris nepatirtų haliucinacijų“, – sakė Daniela Amodei, Anthropic, pokalbių roboto Claude 2 gamintojos, įkūrėja ir prezidentė.
„Jie iš tikrųjų tiesiog sukurti tam, kad nuspėtų kitą žodį“, – sakė Amodei. „Ir taip bus tam tikru greičiu, kuriuo modelis tai padarys netiksliai.”
Antropinis, „ChatGPT“ kūrėjas „OpenAI“ ir kiti pagrindiniai AI sistemų, žinomų kaip didelių kalbų modeliai, kūrėjai teigia, kad stengiasi, kad jos būtų teisingesnės.
Kiek tai užtruks ir ar jie kada nors bus pakankamai geri, kad, tarkime, būtų saugiai išduodami medicininiai patarimai, dar reikia pamatyti.
„Tai nepataisoma“, – sakė lingvistikos profesorė ir Vašingtono universiteto Kompiuterinės lingvistikos laboratorijos direktorė Emily Bender. „Tai yra neatitikimas tarp technologijos ir siūlomų naudojimo atvejų.”
Daug kas priklauso nuo generatyvinės AI technologijos patikimumo. „McKinsey Global Institute“ prognozuoja, kad jis pasaulio ekonomiką papildys 2,6 trilijono USD ekvivalentu iki 4,4 trilijono USD. Pokalbių robotai yra tik viena dalis to siautulio, kuris taip pat apima technologijas, galinčias generuoti naujus vaizdus, vaizdo įrašus, muziką ir kompiuterio kodą. Beveik visose priemonėse yra kalbos komponentas.
„Google“ naujienų organizacijoms jau pristato naujienų rašymo dirbtinio intelekto produktą, kurio tikslumas yra svarbiausias dalykas. „Associated Press“ taip pat tiria šios technologijos naudojimą bendradarbiaudama su „OpenAI“, kuri moka už dalį AP teksto archyvo, kad patobulintų savo dirbtinio intelekto sistemas.
Bendradarbiaudamas su Indijos viešbučių valdymo institutais, kompiuterių mokslininkas Ganeshas Bagleris daugelį metų dirbo siekdamas, kad dirbtinio intelekto sistemos, įskaitant ChatGPT pirmtaką, išrastų Pietų Azijos virtuvės receptus, pvz., naujas ryžių biryani versijas. Vienas „haliucinuotas“ ingredientas gali būti skirtumas tarp skanaus ir nevalgomo patiekalo.
Kai birželį Indijoje lankėsi „OpenAI“ generalinis direktorius Samas Altmanas, Delio informacinių technologijų instituto „Indraprastha“ profesorius turėjo keletą rimtų klausimų.
„Manau, kad ChatGPT haliucinacijos vis dar yra priimtinos, bet kai receptas pasirodo haliucinuojantis, tai tampa rimta problema“, – sakė Bagleris, atsistojęs sausakimšoje universiteto auditorijoje ir kreipdamasis į Altmaną JAV technologijų vadovo pasaulinio turo Naujajame Delyje stotelėje. .
„Kaip jūs manote apie tai?” Galiausiai paklausė Bagleris.
Altmanas išreiškė optimizmą, jei ne tiesioginį įsipareigojimą.
„Manau, kad haliucinacijų problemą pateiksime daug, daug geresnėje vietoje“, – sakė Altmanas. „Manau, kad tai užtruks pusantrų, dvejų metų. Kažkas panašaus. Tačiau tuo metu mes vis tiek apie tai nekalbėsime. Yra pusiausvyra tarp kūrybiškumo ir tobulo tikslumo, o modelis turės išmokti, kada tu nori vieno ar kito“.
„OpenAI“ generalinis direktorius Samas Altmanas kalba Abu Dabyje, Jungtiniuose Arabų Emyratuose, antradienį, 2023 m. birželio 6 d. Antropinis, „ChatGPT“ kūrėjas „OpenAI“ ir kiti pagrindiniai AI sistemų, žinomų kaip didelių kalbų modeliai, kūrėjai teigia, kad jie sunkiai dirba, kad jos būtų teisingesnės. . Kreditas: AP Photo / Jonas Gambrellas, failas Tačiau kai kuriems ekspertams, kurie studijavo šią technologiją, pavyzdžiui, Vašingtono universiteto kalbininkui Benderiui, šių patobulinimų nepakaks.
Benderis apibūdina kalbos modelį kaip sistemą, skirtą „modeliuoti skirtingų žodžių formų eilučių tikimybę“, atsižvelgiant į kai kuriuos rašytinius duomenis, pagal kuriuos jis buvo apmokytas.
Taip rašybos tikrintuvai gali aptikti, kai įvedėte neteisingą žodį. Tai taip pat padeda teikti automatinio vertimo ir transkripcijos paslaugas, „išlygindama išvestį, kad ji labiau atrodytų kaip įprastas tekstas tiksline kalba“, – sakė Benderis. Daugelis žmonių, kurdami tekstinius pranešimus ar el. laiškus, naudojasi automatinio užbaigimo funkcija, pasikliauja šios technologijos versija.
Naujausi pokalbių robotai, tokie kaip „ChatGPT“, „Claude 2“ ar „Google’s Bard“, bando tai perkelti į kitą lygį, generuodami visiškai naujas teksto dalis, tačiau Benderis teigė, kad jie vis dar nuolat pasirenka labiausiai tikėtiną kitą eilutės žodį.
Kai naudojami tekstui generuoti, kalbos modeliai „sukurti tam, kad viską išgalvotų. Tai viskas, ką jie daro”, sakė Benderis. Jie puikiai imituoja rašymo formas, tokias kaip teisinės sutartys, televizijos scenarijai ar sonetai.
„Tačiau kadangi jie visada viską sugalvoja, kai jų išspaustas tekstas gali būti interpretuojamas kaip kažkas, ką mes laikome teisingu, tai atsitiktinai“, – sakė Benderis. „Net jei juos galima dažniau sureguliuoti taip, kad jie būtų teisingi, jie vis tiek turės gedimų režimus – ir greičiausiai gedimai bus tais atvejais, kai tekstą skaitančiam žmogui bus sunkiau pastebėti, nes jie yra labiau neaiškūs.
Šios klaidos nėra didžiulė problema rinkodaros įmonėms, kurios kreipiasi į Jasper AI prašydamos pagalbos rašant pristatymus, sakė bendrovės prezidentas Shane’as Orlickas.
„Haliucinacijos iš tikrųjų yra papildoma premija“, – sakė Orlickas. „Visą laiką turime klientų, kurie pasakoja, kaip jam kilo idėjos – kaip Jasperas kūrė, įgauna istorijas ar kampus, apie kuriuos jie patys niekada nebūtų pagalvoję.
Teksase įsikūręs startuolis bendradarbiauja su tokiais partneriais kaip „OpenAI“, „Anthropic“, „Google“ ar „Facebook“ patronuojančia Meta, kad pasiūlytų savo klientams AI kalbos modelių, pritaikytų jų poreikiams, rinkinį. Asmeniui, kuriam rūpi tikslumas, jis gali pasiūlyti „Anthropic“ modelį, o asmuo, susirūpinęs savo patentuotų šaltinio duomenų saugumu, gali gauti kitą modelį, sakė Orlickas.
Orlickas sakė žinąs, kad haliucinacijos nebus lengvai ištaisytos. Jis tikisi, kad tokios įmonės kaip „Google“, kurios, jo teigimu, turi turėti „tikrai aukštą faktinio turinio standartą“ savo paieškos varikliui, skirs daug energijos ir išteklių sprendimams.
„Manau, kad jie turi išspręsti šią problemą”, – sakė Orlickas. „Jie turi išspręsti šią problemą. Taigi aš nežinau, ar tai kada nors bus tobula, bet tikriausiai laikui bėgant jis tik gerės ir gerės.”
Technooptimistai, įskaitant „Microsoft“ įkūrėją Billą Gatesą, prognozuoja rožines perspektyvas.
„Esu nusiteikęs optimistiškai, kad laikui bėgant dirbtinio intelekto modeliai gali būti išmokyti atskirti faktus nuo pramanų“, – sakė Gatesas liepos mėn. dienoraščio įraše, kuriame išsamiai išdėstė savo mintis apie AI socialinę riziką.
Jis paminėjo 2022 m. paskelbtą OpenAI dokumentą kaip „daug žadančio darbo šioje srityje“ pavyzdį.
Tačiau net Altmanas, bent jau kol kas, nesitiki, kad modeliai bus teisingi.
„Tikriausiai mažiausiai iš visų Žemėje pasitikiu atsakymais, kurie gaunami iš ChatGPT“, – juokdamasis sakė Altmanas miniai Baglerio universitete.
© 2023 The Associated Press. Visos teisės saugomos. Šios medžiagos negalima skelbti, transliuoti, perrašyti ar platinti be leidimo.
Citata: Pokalbių robotai kartais viską sugalvoja. Ne visi mano, kad AI haliucinacijų problemą galima išspręsti (2023 m. rugpjūčio 1 d.), gauta 2023 m. rugpjūčio 1 d. iš https://techxplore.com/news/2023-08-chatbots-ai-hallucination-problem-fixable.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

