Kreditas: Pixabay / CC0 viešasis domenas Oksfordo universiteto mokslininkai, bendradarbiaudami su tarptautiniais ekspertais, paskelbė naują tyrimą Gamtos mašinos intelektas sprendžiant sudėtingas etikos problemas, susijusias su atsakomybe už didelius kalbos modelius (LLM) generuojamus rezultatus.
Tyrimas atskleidžia, kad LLM, pvz., ChatGPT, kelia esminius klausimus, susijusius su kredito ir teisių priskyrimu naudingo teksto generavimui, o tai skiriasi nuo tradicinių DI atsakomybės diskusijų, kuriose daugiausia dėmesio buvo skiriama žalingoms pasekmėms.
„Tokios LLM kaip ChatGPT reikalauja skubiai atnaujinti mūsų atsakomybės sampratą“, – sako Sebastianas Porsdamas Mannas ir Brianas D. Earpas, bendri pirmieji tyrimo autoriai.
Pagrindinė tyrimo išvada, pasak bendraautorių Sveno Nyholmo ir Johno Danaherio, yra ta, kad nors šių technologijų naudotojai negali visiškai pripažinti teigiamų LLM rezultatų, vis tiek atrodo tikslinga laikyti juos atsakingais už žalingą naudojimą. , pvz., dezinformacijos generavimas arba neatsargus sugeneruoto teksto tikslumo tikrinimas.
Tai gali sukelti situaciją, kurią Nyholm ir Danaher, remdamiesi ankstesniais darbais, įvardijo „pasiekimų spraga“: „Dirbamas naudingas darbas, bet žmonės už jį negali gauti tiek pasitenkinimo ar pripažinimo, kaip anksčiau“.
Vyresnysis šio dokumento autorius Julianas Savulescu priduria: „Mums reikia gairių dėl autorystės, atskleidimo reikalavimų, naudojimo šviečiamuoju būdu ir intelektinės nuosavybės, remiantis esamomis norminėmis priemonėmis ir panašiomis svarbiomis diskusijomis, pavyzdžiui, apie žmogaus tobulėjimą“. Normos, reikalaujančios skaidrumo, yra ypač svarbios, tęsia Savulescu, „sekti atsakomybę ir teisingai priskirti pagyrimą bei kaltinimą“.
Tyrime, kurio bendraautorius yra tarpdisciplininė teisės, bioetikos, mašininio mokymosi ir susijusių sričių ekspertų komanda, gilinamasi į galimą LLM poveikį tokiose svarbiose srityse kaip švietimas, akademinė leidyba, intelektinė nuosavybė ir klaidingų dalykų generavimas. ir dezinformacija.
Švietimui ir leidybai ypač reikia skubių veiksmų dėl LLM naudojimo ir atsakomybės gairių. „Rekomenduojame į pateiktus straipsnius įtraukti pareiškimą apie LLM naudojimą kartu su atitinkama papildoma informacija“, – valstijos bendraautoriai Johnas McMillanas ir Danielis Rodgeris. „Atskleidimas LLM turėtų būti panašus į žmonių prisidėjusį, pripažįstant reikšmingą indėlį.
Straipsnyje nurodoma, kad LLM gali būti naudingi švietime, tačiau įspėja, kad jie gali padaryti klaidų, o per didelis jų naudojimas gali turėti įtakos kritinio mąstymo įgūdžiams. Institucijos, rašo autoriai, turėtų apsvarstyti galimybę pritaikyti vertinimo stilius, permąstyti pedagogiką ir atnaujinti akademinio nusižengimo gaires, kad galėtų veiksmingai naudotis LLM.
Sukurto teksto teisės, pavyzdžiui, intelektinės nuosavybės teisės ir žmogaus teisės, yra dar viena sritis, kurioje reikia greitai išsiaiškinti LLM naudojimo pasekmes, pažymi bendraautorė Monika Plozza. „IP teisės ir žmogaus teisės kelia iššūkių, nes jos remiasi darbo ir kūrybiškumo sampratomis, sukurtomis atsižvelgiant į žmones. Turime sukurti arba pritaikyti tokias sistemas kaip „indėlis“, kad galėtume valdyti šią sparčiai besivystančią technologiją, kartu saugodami kūrėjų ir naudotojų teises. “.
Ne visi numatomi LLM naudojimo būdai yra gerybiniai. „LLM gali būti naudojamas žalingam turiniui generuoti, įskaitant didelio masto klaidingą ir dezinformaciją“, – įspėja bendraautorius Julianas Koplinas. „Štai kodėl mes turime priversti žmones atsakyti už LLM sukurto teksto, kurį jie naudoja, tikslumą, taip pat stengtis šviesti vartotojus ir tobulinti turinio moderavimo politiką, kad sumažintume riziką.
Pasak bendraautorių Nikolaj Møller ir Peter Treit, LLM kūrėjai galėtų sekti savireguliacijos pavyzdžiu tokiose srityse kaip biomedicina. „Kurti ir nusipelnyti pasitikėjimo yra labai svarbus tolesniam LLM vystymuisi. Skatindami skaidrumą ir įsitraukdami į atviras diskusijas, LLM kūrėjai gali parodyti savo įsipareigojimą atsakingai ir etiškai praktikai.”
Daugiau informacijos: Sebastianas Porsdamas Mannas ir kt., „Generatyvusis dirbtinis intelektas“ sukelia kredito ir kaltės asimetriją, Gamtos mašinos intelektas (2023). DOI: 10.1038/s42256-023-00653-1
Citata: Didelės kalbos modelių etinės atsakomybės dilemos sprendimas (2023 m. gegužės 5 d.), gautas 2023 m. gegužės 6 d. iš https://techxplore.com/news/2023-05-tackling-ethical-dilemma-responsibility-large.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

