Kreditas: Unsplash/CC0 viešasis domenas Per kelis mėnesius generatyvūs AI modeliai, tokie kaip ChatGPT, Google’s Bard ir Midjourney, buvo pritaikyti vis daugiau žmonių įvairiais profesiniais ir asmeniniais būdais. Tačiau augantys tyrimai pabrėžia, kad jie užkoduoja savo vartotojų šališkumą ir neigiamus stereotipus, taip pat masiškai generuoja ir skleidžia iš pažiūros tikslią, bet beprasmę informaciją. Nerimą kelia tai, kad marginalizuotos grupės yra neproporcingai paveiktos šios beprasmės informacijos išgalvojimo.
Be to, masinė gamyba gali turėti įtakos žmonių tikėjimui, nes jį skatinantys modeliai tampa vis labiau paplitę ir užpildo pasaulinį žiniatinklį. Žmonės ne tik renka informaciją iš žiniatinklio, bet ir didžioji dalis pagrindinės mokomosios medžiagos, kurią naudoja AI modeliai, yra iš čia. Kitaip tariant, vystosi nuolatinis grįžtamojo ryšio ciklas, kuriame šališkumas ir nesąmonė kartojasi ir priimami vėl ir vėl.
Šios išvados ir prašymas psichologų bei mašininio mokymosi ekspertų labai greitai bendradarbiauti, siekiant įvertinti problemos mastą ir rasti sprendimus, šiandien paskelbtos žurnalo „Perspective“. Mokslaskurios bendraautorius yra Abeba Birhane, kuris yra Trejybės kompiuterių mokslo ir statistikos mokyklos asistentas (dirba su Trinity’s Complex Software Lab) ir Mozilla fondo patikimo AI vyresnysis bendradarbis.
Profesorius Birhane’as sakė: „Žmonės reguliariai praneša apie netikrumą tokiomis frazėmis kaip „manau“, atsakymo delsimas, pataisymai ir kalbos sutrikimai. Priešingai, generatyvūs modeliai suteikia patikimus, sklandžius atsakymus be neapibrėžtumo atvaizdų ir galimybės pranešti apie jų nebuvimą. Dėl to tai gali sukelti didesnį iškraipymą, palyginti su žmogaus indėliu, ir paskatinti žmones priimti atsakymus kaip faktiškai tikslius. Šias problemas apsunkina finansiniai ir atsakomybės interesai, skatinantys įmones antropomorfizuoti generatyvius modelius kaip protingus, jausmingus, empatiškus ar net vaikiškus.
Vienas iš tokių „Perspektyvoje“ pateiktų pavyzdžių yra skirtas tam, kaip statistiniai modelio dėsningumai priskyrė juodaodžius kaltinamuosius su didesniu rizikos balu. Teismo teisėjai, išmokę šablonus, gali pakeisti savo bausmių skyrimo praktiką, kad atitiktų algoritmų prognozes. Šis pagrindinis statistinio mokymosi mechanizmas gali paskatinti teisėją manyti, kad juodaodžiai labiau linkę pakartotinai nusikalsti, net jei sistemos naudojimą sustabdo tokie reglamentai, kokie neseniai buvo priimti Kalifornijoje.
Ypatingą susirūpinimą kelia tai, kad nelengva atsikratyti šališkumo ar išgalvotos informacijos, kai asmuo ją priima. Vaikams kyla ypač didelė rizika, nes jie yra labiau pažeidžiami dėl įsitikinimų iškraipymo, nes jie labiau linkę antropomorfizuoti technologijas ir yra lengviau paveikiami.
Reikia greitos, išsamios analizės, kuri įvertintų generatyvinių modelių poveikį žmogaus įsitikinimams ir šališkumui.
Prof. Birhane’as sakė: „Tyrimai ir vėlesnės intervencijos būtų veiksmingiausiai nukreiptos į poveikį marginalizuotoms populiacijoms, kurias neproporcingai veikia tiek prasimanymai, tiek neigiami stereotipai modelio rezultatuose. Be to, reikalingi ištekliai visuomenės, politikos formuotojų ir tarpdisciplininių mokslininkų švietimui. pateikti tikroviškai pagrįstą vaizdą apie tai, kaip veikia generatyvūs AI modeliai, ir ištaisyti esamą dezinformaciją ir ažiotažą, susijusią su šiomis naujomis technologijomis.
Daugiau informacijos: Celeste Kidd ir kt., Kaip generatyvūs AI modeliai gali iškreipti žmonių įsitikinimus, Mokslas (2023). DOI: 10.1126/science.adi0248. www.science.org/doi/10.1126/science.adi0248
Citata: Generatyvieji AI modeliai užkoduoja naudotojų šališkumą ir neigiamus stereotipus, teigia mokslininkai (2023 m. birželio 22 d.), gauti 2023 m. birželio 22 d. iš https://techxplore.com/news/2023-06-generative-ai-encoding-biases-negative .html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

