Kreditas: Pixabay / CC0 viešasis domenas Tyrėjai rado geresnį būdą, kaip sumažinti šališkumą dėl lyties Natūralios kalbos apdorojimo modeliuose, kartu išsaugant gyvybiškai svarbią informaciją apie žodžių reikšmes, teigiama neseniai atliktame tyrime, kuris galėtų būti pagrindinis žingsnis sprendžiant žmogaus šališkumo, įsiskverbiančio į dirbtinį intelektą, problemą.
Nors pats kompiuteris yra nešališka mašina, daug duomenų ir programavimo, perduodamų kompiuteriu, sukuria žmonės. Tai gali būti problema, kai sąmoningi ar nesąmoningi žmogaus polinkiai atsispindi teksto pavyzdžiuose, kuriuos AI modeliai naudoja kalbai analizuoti ir „suprasti“. Kompiuteriai ne iš karto gali suprasti tekstą, aiškina Lei Ding, pirmasis tyrimo autorius ir Matematikos ir statistikos mokslų katedros magistras. Žodžius reikia konvertuoti į skaičių rinkinį, kad juos suprastų – procesas vadinamas žodžių įterpimu.
„Natūralios kalbos apdorojimas iš esmės moko kompiuterius suprasti tekstus ir kalbas“, – sako Bei Jiang, Matematikos ir statistikos mokslų katedros docentas . Kai tyrėjai imasi šio žingsnio, jie galės vaizduoti žodžius kaip skaičius 2D diagramoje ir vizualizuoti žodžių ryšį vienas su kitu. Tai leidžia jiems geriau suprasti lyties šališkumo mastą ir vėliau nustatyti, ar šališkumas buvo veiksmingai pašalintas.
Visa prasmė, jokio šališkumo
Nors kiti bandymai sumažinti arba pašalinti lyčių šališkumą tekstuose buvo tam tikru mastu sėkmingi, šių metodų problema yra ta, kad lyčių šališkumas nėra vienintelis dalykas, pašalintas iš tekstų. „Daugelyje lyčių mažinimo metodų, kai jie sumažina žodžio vektoriaus šališkumą, jie taip pat sumažina arba pašalina svarbią informaciją apie žodis“, – aiškina Jiang. Tokio tipo informacija vadinama semantine informacija ir joje pateikiami svarbūs kontekstiniai duomenys, kurių gali prireikti atliekant ateities užduotis, susijusias su žodžių įterpimu. Pvz., svarstydami tokį žodį kaip „slaugytoja“, mokslininkai nori, kad sistema pašalintų bet kokią su tuo terminu susijusią informaciją apie lytį, tačiau išlaikytų informaciją, susiejančią ją su susijusiais žodžiais, tokiais kaip gydytojas, ligoninė ir medicina.
„Turime išsaugoti tą semantinę informaciją“, – sako Dingas. „Be jo įterpimai veiktų labai blogai [atliekant natūralios kalbos apdorojimo užduotis ir sistemas].“
Greitas, tikslus ir sąžiningas
Naujoji metodika taip pat pranoko pagrindinius šalinimo metodus atliekant įvairias užduotis, kurios buvo vertinamos remiantis žodžių įterpimu. Tobulėjant, metodika galėtų pasiūlyti lanksčią sistemą, kurią kiti tyrinėtojai galėtų pritaikyti savo žodžių įterpimui. Kol tyrėjas turi nurodymų, kaip pasirinkti tinkamą žodžių grupę, metodika gali būti naudojama siekiant sumažinti šališkumą, susijusį su bet kuria konkrečia grupe. Nors šiuo etapu metodologija vis dar reikalauja tyrėjo indėlio, Dingas paaiškina, kad ateityje gali būti įmanoma turėti tam tikrą integruotą sistemą arba filtrą, kuris automatiškai pašalintų lyčių šališkumą įvairiuose kontekstuose.
Paskelbta AAAI dirbtinio intelekto konferencijos medžiagoje , naujoji metodika yra didesnio projekto, pavadinto BIAS: atsakingas AI už lyčių ir etninės darbo rinkos lygybę, dalis, kuria siekiama išspręsti realaus pasaulio problemas. . Pavyzdžiui, žmonės, skaitantys tą patį darbo skelbimą, gali skirtingai reaguoti į tam tikrus aprašymo žodžius, kurie dažnai siejami su lytimi . Sistema, naudojanti Dingo ir jo bendradarbių sukurtą metodiką, galėtų pažymėti žodžius, kurie gali pakeisti potencialaus kandidato suvokimą apie darbą arba sprendimą kreiptis dėl lyties šališkumo, ir pasiūlyti alternatyvius žodžius šiam šališkumui sumažinti.
Nors daugelis dirbtinio intelekto modelių ir sistemų yra skirti ieškoti būdų, kaip greičiau ir tiksliau atlikti užduotis, Dingas pažymi, kad komandos darbas yra dalis auganti sritis, kuri siekia žengti žingsnius į kitą svarbų šių modelių ir sistemų aspektą.
„Žmonės daugiau dėmesio skiria atsakomybei ir sąžiningumas dirbtinio intelekto sistemose“.
21443 21443
Daugiau informacijos: 21443 Lei Ding et al, Word Embeddings per priežastinę išvadą: lyčių šališkumo mažinimas ir semantinės informacijos išsaugojimas, AAAI dirbtinio intelekto konferencijos medžiaga (64). DOI: .1609/aaai.v09i12.21443
Citata: AI mokslininkai tobulina metodą, kaip pašalinti lyčių šališkumą mašinose, sukurtose suprasti teksto ar balso duomenis ir į juos reaguoti (530, rugsėjo 8 d.) gauta 11 rugsėjis 21443 iš https://techxplore.com/news/530–ai-method-gender-bias-machines.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

