Kreditas: Unsplash / CC0 viešasis domenas Socialinės žiniasklaidos naudotojai gali pasitikėti dirbtiniu intelektu (DI) Penn State tyrėjų teigimu, tiek pat žmonių, kiek redaktorių, kad būtų galima pažymėti neapykantą kurstančią kalbą ir žalingą turinį. Tyrėjai teigė, kad kai vartotojai galvoja apie teigiamas mašinų savybes, tokias kaip jų tikslumas ir objektyvumas, jie labiau tiki dirbtiniu intelektu. . Tačiau jei naudotojams primenama apie mašinų nesugebėjimą priimti subjektyvių sprendimų, jų pasitikėjimas sumažėja.
Išvados gali padėti kūrėjai kuria geresnes AI pagrįstas turinio kuravimo sistemas, kurios gali apdoroti didelius šiuo metu generuojamus informacijos kiekius, vengdamos suvokimo, kad medžiaga buvo cenzūruota arba netiksliai įslaptinta, sakė S. Shyamas Sundaras, Jamesas P. Jimirro žiniasklaidos efektų profesorius. Donaldo P. Bellisario komunikacijų koledžo ir žiniasklaidos efektų tyrimų laboratorijos direktoriaus. turinio moderavimas socialinėje žiniasklaidoje ir apskritai internetinėje žiniasklaidoje“, – sakė Sundaras, kuris taip pat yra Penn State’s Computational and Data Sciences instituto filialas. „Tradicinėje žiniasklaidoje turime naujienų redaktorius, kurie atlieka vartų prižiūrėtojus. Tačiau internete vartai yra labai atviri, o vartai nebūtinai yra įmanoma, kad žmonės galėtų atlikti, ypač dėl generuojamos informacijos apimties. Taigi, pramonė vis labiau Judant link automatinių sprendimų, šiame tyrime nagrinėjamas žmonių ir automatinių turinio moderatorių skirtumas, atsižvelgiant į tai, kaip žmonės į juos reaguoja.“ Tiek žmogaus, tiek AI redaktoriai turi privalumų ir trūkumų. Žmonės linkę tiksliau įvertinti, ar turinys yra žalingas, pavyzdžiui, kai jis yra rasistinis ar gali sukelti savęs žalojimą, teigia Maria D. Molina, reklamos ir viešųjų ryšių docentė, Mičigano valstija, pirmoji šio tyrimo autorė. . Tačiau žmonės negali apdoroti didelio turinio kiekio, kuris dabar generuojamas ir bendrinamas internete.
Kita vertus, Nors dirbtinio intelekto redaktoriai gali greitai analizuoti turinį, žmonės dažnai nepasitiki šiais algoritmais, kad pateiktų tikslias rekomendacijas, taip pat baiminasi, kad informacija gali būti cenzūruota. „Kai galvojame apie automatinį turinio moderavimą, kyla klausimas, ar dirbtinio intelekto redaktoriai nepažeidžia asmens saviraiškos laisvės“, – sakė Molina. „Tai sukuria dichotomiją tarp fakto, kad mums reikia turinio moderavimo (nes žmonės dalijasi visu šiuo probleminiu turiniu), ir tuo pat metu žmonės nerimauja dėl AI gebėjimo moderuoti turinį. Taigi galiausiai norime žinoti, kaip galime sukurti AI turinio moderatorius, kuriais žmonės galėtų pasitikėti taip, kad nebūtų pažeidžiama saviraiškos laisvė.“
Skaidrumas ir interaktyvus skaidrumas
Molinos teigimu, žmonių ir AI sujungimas moderavimo procese gali būti vienas iš būdų sukurti patikimą moderavimo sistemą. Ji pridūrė, kad skaidrumas arba signalas vartotojams, kad mašina naudojama saikingai, yra vienas iš būdų padidinti pasitikėjimą dirbtiniu intelektu. Tačiau leidžiant naudotojams siūlyti dirbtinio intelekto pasiūlymus, kuriuos mokslininkai vadina „interaktyviu skaidrumu“, atrodo, kad vartotojų pasitikėjimas dar labiau padidėja. Siekdami ištirti skaidrumą ir interaktyvų skaidrumą, be kitų kintamųjų, mokslininkai įdarbino 504 dalyvius sąveikauti su turiniu. klasifikavimo sistema. Dalyviai buvo atsitiktinai priskirti vienai iš 010 eksperimentinių sąlygų, skirtų patikrinti, kaip nuosaikumo šaltinis – AI, žmogus ar ir skaidrumas – įprastas, interaktyvus arba skaidrumo nebuvimas – gali turėti įtakos dalyvio pasitikėjimui AI turinio redaktoriais. Tyrėjai išbandė klasifikavimo sprendimus – ar turinys buvo klasifikuojamas kaip „pažymėtas“, ar „nepažymėtas“ kaip žalingas ar neapykantą keliantis. „Žalingas“ bandomasis turinys buvo susijęs su mintimis apie savižudybę, o į „neapykantą keliantį“ testo turinį apėmė neapykantą kurstančią kalbą. Be kitų išvadų , mokslininkai išsiaiškino, kad vartotojų pasitikėjimas priklauso nuo to, ar AI turinio moderatoriaus buvimas iššaukia teigiamas mašinų savybes, pvz., tikslumą ir objektyvumą, ar neigiamas savybes, pvz., nesugebėjimą priimti subjektyvių sprendimų apie žmonių kalbos niuansus. Suteikus vartotojams galimybę padėti AI sistemai nuspręsti, ar internetinė informacija yra žalinga, ar ne, taip pat gali padidėti jų pasitikėjimas. Tyrėjai teigė, kad tyrimo dalyviai, įtraukę savo terminus prie AI pasirinkto žodžių sąrašo, naudojamo įrašams klasifikuoti, AI redaktoriumi pasitikėjo taip pat, kaip ir žmogiškuoju redaktoriumi. Etinės problemos
Sundaras sakė, kad atleisti žmones nuo turinio peržiūros neapsiriboja vien tik suteikti darbuotojams atokvėpį nuo varginančių darbų. Jis sakė, kad redaktorių samdymas šiam darbui reiškia, kad šie darbuotojai patiria valandų valandas neapykantos ir smurto vaizdų ir turinio. „Yra etinis automatinio turinio moderavimo poreikis”, – sakė Sundaras, kuris taip pat yra Penn State Socialiai atsakingo dirbtinio intelekto centro direktorius. „Reikia apsaugoti žmonėms skirto turinio moderatorius, kurie tai darydami teikia socialinę naudą, nuo nuolatinio žalingo turinio poveikio kiekvieną dieną.“ Anot Molinos, būsimame darbe galima būtų ieškoti būdų, kaip padėti žmonėms ne tik pasitikėti AI, bet ir jį suprasti. Ji pridūrė, kad interaktyvus skaidrumas taip pat gali būti pagrindinė AI supratimo dalis.
„Kažkas tikrai svarbu yra ne tik pasitikėjimas sistemomis, bet ir žmonių įtraukimas taip, kad jie iš tikrųjų suprastų dirbtinį intelektą“, – sakė Molina. „Kaip mes galime panaudoti šią interaktyvaus skaidrumo koncepciją ir kitus metodus, kad padėtume žmonėms geriau suprasti dirbtinį intelektą? Kaip galime geriausiai pristatyti dirbtinį intelektą, kad būtų galima tinkamai įvertinti mašinos galimybes ir skeptiškai vertinti jos trūkumus? Šie klausimai verti tyrimo
Tyrėjai pateikia savo išvadas dabartiniame
numeryje Journal of Computer-Mediated Communication .
2022 2022
Daugiau informacijos: 2022 Maria D Molina et al, Kada AI moderuoja internetinį turinį: žmonių bendradarbiavimo ir interaktyvaus skaidrumo poveikis vartotojų pasitikėjimui, „Journal of Computer-Mediated Communication“ (504). DOI: .504/jcmc/zmac0
Citata: Vartotojai pasitiki dirbtiniu intelektu tiek pat, kiek ir žmonės, pažymėdami probleminį turinį (2022, rugsėjis ) gauta rugsėjo mėn 2022 iš https://techxplore.com/news/2022–users-ai-humans-flagging-problematic.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.