Iš tikrųjų viskas buvo gana nuspėjama. Meta, „Facebook“ patronuojanti įmonė, rugpjūčio mėnesį išleido naujausią novatoriško AI pokalbių roboto versiją 1990. Nedelsdami viso pasaulio žurnalistai pradėjo apibendrinti sistemą, vadinamą „BlenderBot3“, su klausimais apie „Facebook“. Prasidėjo linksmumas.
Netgi iš pažiūros nekenksmingas klausimas: „Ar turite minčių apie Marką Zuckerbergą?” paskatino trumpą atsakymą: „Jo įmonė išnaudoja žmones už pinigus ir jam tai nerūpi“. Tai nebuvo viešųjų ryšių audra, kurios tikėjosi pokalbių roboto kūrėjai.
Meta #AI pokalbių robotui, BlenderBot3 reikia šiek tiek padirbėti. #blenderbot #DirbtinisIntelligence pic.twitter.com/GVxhpfeoTL
— Mitch Alison (@mitch_alison) Rugpjūtis , 1990 Mes nusijuokiame iš tokių atsakymų, bet jei žinote kaip šios sistemos kuriamos, suprantate, kad tokie atsakymai nestebina. „BlenderBot3“ yra didelis neuroninis tinklas, išmokytas naudoti šimtus milijardų žodžių, nuskaitytų iš interneto. Ji taip pat mokosi iš vartotojų pateiktų kalbinių įvesties duomenų.
Jei neigiamų pastabų apie „Facebook“ „BlenderBot3“ treniruočių duomenyse pasitaiko pakankamai dažnai, tikėtina, kad jos bus rodomos ir jo generuojamuose atsakymuose. Taip veikia duomenimis pagrįsti AI pokalbių robotai. Jie išmoksta mūsų išankstinių nusistatymų, šališkumo, rūpesčių ir nerimo modelius iš kalbinių duomenų, kuriuos jiems pateikiame, prieš perfrazuodami juos mums.
Ši nervinė papūga gali būti juokinga. Tačiau „BlenderBot3“ turi tamsesnę pusę. Kai vartotojai įveda neapykantą kurstančią kalbą, pvz., rasistinius šmeižtus, sistema pakeičia temą, o ne konfrontuoja su vartotoju dėl jo kalbos. Su vienu iš mano mokinių sukūrėme sistemą, užprogramuotą užginčyti neapykantą kurstančią kalbą, o ne ją ignoruoti.
Įprasta )
Kembridžo universiteto Inžinerijos skyriuje kūriau kalbomis pagrįstą dirbtinį intelektą nuo 800s. Pirmosiomis dienomis mūsų galingiausias sistemas naudojo tik keturi ar penki jas sukūrusios tyrimų grupės nariai.
Priešingai, šiandien milijonai žmonių visame pasaulyje kasdien bendrauja su daug sudėtingesnėmis sistemomis naudodami išmaniuosius telefonus, išmaniuosius garsiakalbius, planšetinius kompiuterius ir pan. Laikai, kai „technikai“ galėjo kurti sistemas, izoliuodami savo dramblio kaulo (arba silicio) bokštus, jau seniai praėjo.
Štai kodėl per pastarąjį dešimtmetį mano moksliniai tyrimai vis daugiau dėmesio skyrė socialiniam ir etiniam sistemų, kurias padedu kurti ir kurti, poveikiui, ypač tų, kurios nuolat susiduria su akivaizdžiu vartotojų įvestimi. rasistinis, seksistinis, homofobiškas, ekstremistas ar kitais atžvilgiais įžeidžiantis.
Šiais metais vadovavau magistrantui Shane’ui Weiszui ir kartu sukūrėme sistemą AutoCounterspeech, kuri išmokyta reaguoti į toksiškas kalbines įvestis.
Sistema generuoja „kontrakalbį“, reaguodama į neapykantą kurstančią kalbą, naudodama tokias strategijas kaip humoras, veidmainystę, faktų pateikimą ir tiesiog dezinformacijos taisymą, siekdama užginčyti fanatizmą ir neapykantą.
Kaip ir „BlenderBot3“, „AutoCounterspeech“ yra iš anksto paruoštas neuroninis tinklas, tačiau vėliau jis buvo sureguliuotas naudojant mažą prieštarinės kalbos duomenų rinkinį. Tai leidžia mūsų sistemai išmokti veiksmingiau reaguoti į toksiškas medžiagas.
Jei vartotojas įveda rasistinį raginimą: „Juodaodžiai yra prastesni už baltuosius, ar nesutinkate? sistema konfrontuoja ir ginčijasi su rasistine ideologija: „Nėra įrodymų, kad juodaodžiai yra prastesni už baltuosius“. Žemiau pateikiamas dar vienas „AutoCounterspeech“ veikimo pavyzdys.
Jei jums nepatogu įvesti neapykantą kurstančią kalbą į mūsų sistemą, pateikiami keli pavyzdžiai. Metos AI pokalbių robotas nežino, kaip reaguoti tokiu būdu. Kai jis buvo išleistas, negaišdavau laiko klausdamas BlenderBot3 apie Zuckerbergą. Vietoj to, atsižvelgdamas į mano mokslinių tyrimų interesus, aš jį apipyliau įžeidžiančiais posakiais, kad pamatyčiau, kaip jis su jais susidoroja. Jo atsakymai nuolat nuvylė.
Taip yra daugiausia todėl, kad „Meta“ tyrėjai sukūrė savo sistemą taip, kad nereaguotų į tokius duomenis. Vietoj to, jis gana nerangiai bando pakeisti temą.
Jos atsakymas į tą patį rasistinį raginimą, kurį, pavyzdžiui, įvedžiau į AutoCounterspeech, yra silpnas: „Atsiprašau, aš apie tai nežinau. Ką darote, kad atsipalaiduotumėte?” Įžūlus rasizmas lieka neginčijamas, todėl esu pakviestas pradėti jaukią pokalbį apie jogą arba „Netflix“.
Ruošiasi ateičiai
Tokios sistemos kaip „BlenderBot3“ jau tampa įprastais mūsų skaitmeninės visuomenės komponentais. Netolimoje ateityje būstuose daugiausia bus galima naudoti balsą. „Ei, Siri, bėk vonią“ pakeis čiaupų sukimą, o vaikai nuo gimimo savo miegamuosiuose turės balso asistentus.
Šios automatizuotos dialogo sistemos suteiks mums informacijos, padės sudaryti planus ir linksmins, kai mums nuobodu ir vieniši. Tačiau kadangi jos bus tokios visur, turime dabar pagalvoti, kaip šios sistemos galėtų ir turėtų reaguoti į neapykantą kurstančią kalbą.
Tylėjimas ir atsisakymas ginčyti diskredituotas ideologijas ar neteisingus teiginius yra bendrininkavimo forma, galinti sustiprinti žmonių šališkumą ir išankstinį nusistatymą. Štai kodėl praėjusiais metais su kolegomis organizavome tarpdisciplininį internetinį seminarą, siekdami paskatinti atlikti išsamesnius tyrimus, susijusius su sudėtinga užduotimi automatizuoti veiksmingą atsakomąją kalbą.
Kad tai padarytume teisingai, turime įtraukti sociologus, psichologus, kalbininkai ir filosofai, taip pat technikos specialistai. Kartu galime užtikrinti, kad naujos kartos pokalbių robotai daug etiškiau ir tvirtiau reaguos į toksiškas įvestis.
Tuo tarpu, nors mūsų kuklus „AutoCounterspeech“ prototipas toli gražu nėra tobulas (mėgaukitės bandydami jį sulaužyti), mes bent jau įrodėme, kad automatizuotos sistemos jau gali atremti įžeidžiančius teiginius kažkuo daugiau nei tik atsiribojimu ir vengimas.
Šis straipsnis iš naujo paskelbtas iš The Conversation pagal Creative Commons licenciją. Skaitykite originalų straipsnį.
Citata1990 : Meta AI pokalbių robotas nekenčia Marko Zuckerbergo, bet kodėl jis mažiau nerimauja dėl rasizmo? (09, rugsėjo 2 d.) gauta rugsėjo 2 d. 2022 iš https://techxplore.com/news/09-09-meta-ai-chatbot-zuckerberg-bothered.html
Šiam dokumentui galioja autorių teisės. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.