Michaelas Scottas, pagrindinis veikėjas iš JAV „The Office“ versijos, naudoja dirbtinio intelekto verbuotoją, kad samdytų registratūrą.
Taikomas „Guardian Australia“.
Teksto pagrindu sukurta sistema kandidatams užduoda penkis klausimus, kuriuose atsižvelgiama į tai, kaip jie reagavo į ankstesnes darbo situacijas, įskaitant bendravimą su sudėtingais kolegomis ir žongliravimą konkuruojančiais darbo poreikiais.
Potencialūs darbuotojai įveda savo atsakymus į pokalbių stiliaus programą, panašią į reaguojančią pagalbos tarnybą. Tada įsijungia tikroji ir nerimą kelianti AI galia, siunčiant balų ir savybių profilį darbdaviui, o kandidatui – asmenybės ataskaitą. (Daugiau apie mūsų rezultatus vėliau.)
Ši demonstracija, kurią atliko Melburne įsikūręs startuolis Sapia.ai, primena pradinį struktūrizuoto interviu procesą, kurį naudoja jų klientai, tarp kurių yra keletas didžiausių Australijos įmonių, tokių kaip „Qantas“, „Medibank“, „Suncorp“ ir „Woolworths“.
Procesas paprastai sudaro trumpąjį sąrašą, kurį darbdavys gali sekti, su įžvalgomis apie asmenybės žymenis, įskaitant nuolankumą, ekstraversiją ir sąžiningumą.
Kaip AI balso klonas suklaidino „Centrelink“ – vaizdo įrašasKlientų aptarnavimo pareigose jis skirtas padėti darbdaviui žinoti, ar kas nors yra draugiškas. Dirbdamas rankiniu būdu, darbdavys gali norėti sužinoti, ar kandidatas atvyks laiku.
„Jūs iš esmės apklausiate pasaulį; visi gauna interviu“, – sako „Sapia“ įkūrėja ir vykdomoji vadovė Barb Hyman.
Dirbtinio intelekto samdymo pardavimo taškai yra aiškūs: jis gali automatizuoti brangius ir daug laiko reikalaujančius procesus įmonėms ir vyriausybinėms agentūroms, ypač kai reikia įdarbinti ne vadovaujančius vaidmenis.
Tačiau didžiausias Sapia teiginys gali būti, kad tai yra vienintelis būdas duoti teisingą interviu.
„Vienintelis būdas pašalinti šališkumą samdant yra nenaudoti žmonių prie pat pirmųjų vartų“, – sako Hymanas. „Štai čia ir atsiranda mūsų technologija: ji akla; jis nenustatytas, jame nenaudojami gyvenimo aprašymo duomenys, jūsų socialinės žiniasklaidos ar demografiniai duomenys. Viskas, ką ji naudoja, yra teksto rezultatai.
„Sapia“ įkūrėjas ir vykdomasis direktorius Barbas Hymanas sako, kad dirbtinio intelekto samdymas yra vienintelis būdas duoti sąžiningą interviu. Nuotrauka: Ellen Smith / The Guardian
Neryškus pasiekimų rekordas
„Sapia“ nėra vienintelė dirbtinio intelekto įmonė, teigianti, kad jos technologija sumažins įdarbinimo proceso šališkumą. Daugybė įmonių visoje Australijoje siūlo dirbtinio intelekto papildytus įdarbinimo įrankius, įskaitant ne tik pokalbiais pagrįstus modelius, bet ir vienpusius vaizdo interviu, automatinius nuorodų patikrinimus, socialinės žiniasklaidos analizatorius ir kt.
2022 m. Australijos viešojo sektoriaus agentūrų apklausa parodė, kad mažiausiai ketvirtadalis tais metais naudojo dirbtinio intelekto technologijas įdarbinant. Atskiri Australijos įvairovės tarybos ir Monasho universiteto tyrimai rodo, kad trečdalis Australijos organizacijų tam tikru įdarbinimo proceso momentu tai naudoja.
Tačiau pareiškėjai dažnai nežino, kad jiems bus taikomas automatizuotas procesas, arba kuo remiantis jie bus vertinami.
Nuopelnų gynimo komisaro biuras pataria viešųjų paslaugų agentūroms, kad kai jos naudoja dirbtinio intelekto įrankius įdarbinimui, turėtų būti „aiškus įrodytas ryšys tarp vertinamų kandidato savybių ir savybių, reikalingų darbo pareigoms atlikti“.
- Užsiregistruokite „Guardian Australia“ nemokamam rytui ir popietei pašto naujienlaiškius, skirtus jūsų kasdienei naujienų santraukai
Komisaro biuras taip pat įspėja, kad dirbtinis intelektas gali vertinti kandidatus ne pagal nuopelnus, o kelti etinių ir teisinių susirūpinimą dėl skaidrumo ir duomenų šališkumo, gauti šališkus rezultatus arba sukelti „statistinį šališkumą“, klaidingai interpretuodamas socialinius ir ekonominius rodiklius kaip sėkmės rodiklius.
Tam yra rimta priežastis perspėti. AI rezultatai dėl šališkumo kelia nerimą.
2017 m. „Amazon“ tyliai atsisakė eksperimentinio kandidatų reitingavimo įrankio, kuris buvo apmokytas rengti CV iš daugiausia vyriškos lyties technologijų pramonės. Įrankis sistemingai sumažino moterų CV, nubausdamas tuos, kuriuose buvo tokios frazės kaip „moterų šachmatų klubo kapitonė“, ir padidino tuos, kuriuose buvo naudojami veiksmažodžiai, dažniau pasitaikantys vyrų inžinierių CV, pvz., „įvykdė“ ir „pagauta“.
2020 m. JAV atlikti tyrimai parodė, kad „Microsoft“ ir IBM, be kita ko, sukurtos veido analizės technologijos veiksmingesnės šviesesnės odos žmonėms ir vyrams, o tamsesnės odos moterys dažniausiai klaidingai suklydo programose.
Praėjusiais metais Kembridžo universiteto atliktas tyrimas parodė, kad dirbtinis intelektas nėra geras tarpininkas, bet „kurdamas asociacijas tarp žodžių ir žmonių kūnų“ padeda sukurti „idealų kandidatą“, o ne tik jį stebi ar identifikuoja.
La Trobe universiteto teisininkė ir doktorantė Natalie Sheard, kurios daktaro laipsnis nagrinėja dirbtinio intelekto samdymo sistemų reguliavimą ir diskriminaciją, teigia, kad šis skaidrumo trūkumas yra didžiulė teisingumo problema.
Mažiausiai ketvirtadalis Australijos viešojo sektoriaus agentūrų naudojo dirbtinio intelekto technologijas įdarbinant 2022 m. Iliustracija: JYPIX / Alamy”Messenger” stiliaus programos yra pagrįstos natūralios kalbos apdorojimu, panašiu į ChatGPT, todėl šių sistemų mokymo duomenys dažniausiai yra žmonių, kalbančių standartine anglų kalba, žodžiai arba balso garsai, – sako Sheardas.
„Taigi, jei esate ne gimtoji, kaip tai elgiasi su jumis? Gali būti, kad jūs neturite gerų bendravimo įgūdžių, jei nenaudojate standartinės anglų kalbos gramatikos, arba galite turėti skirtingų kultūrinių bruožų, kurių sistema gali neatpažinti, nes buvo išmokyta kalbantiems gimtąja kalba.
Kitas rūpestis yra tai, kaip fizinė negalia atsižvelgiama į pokalbį ar vaizdo interviu. Kadangi trūksta skaidrumo, ar vertinimai atliekami naudojant AI ir kokiu pagrindu, kandidatams dažnai neįmanoma žinoti, kad jiems gali prireikti pagrįstų koregavimų, į kuriuos jie turi teisinę teisę.
praleisti ankstesnę naujienlaiškio reklamąpo naujienlaiškio reklamavimo
„Yra teisiniai reikalavimai organizacijoms, kad jos galėtų prisitaikyti prie negalios samdymo procese“, – sako Sheardas. „Tačiau tam reikia, kad žmonės iš karto atskleistų savo negalią, kai nepasitiki šiuo darbdaviu. Ir šios sistemos keičia tradicinę įdarbinimo praktiką, todėl jūs nežinote, kas yra vertinimas, nežinote, koks algoritmas jus įvertins ir kaip jį įvertins. Galbūt nežinote, kad jums reikia protingo koregavimo.
Australijoje nėra įstatymų, konkrečiai reglamentuojančių AI įdarbinimo priemones. Pramonės departamentas sukūrė AI etikos sistemą, apimančią skaidrumo, paaiškinamumo, atskaitomybės ir privatumo principus, kodeksas yra savanoriškas.
„Bendruomenėje mažai suprantama apie AI sistemas, todėl darbdaviai labai priklauso nuo šių pardavėjų, jie diegia [the tools] be jokių valdymo sistemų“, – sako Sheardas.
„Darbdaviai neturi jokių blogų ketinimų, jie nori daryti teisingus dalykus, bet neįsivaizduoja, ką turėtų daryti. Nėra sukurtų vidinių priežiūros mechanizmų, nepriklausomų audito sistemų, užtikrinančių, kad nėra šališkumo.
Įvairovės klausimas
Hymanas teigia, kad klientų atsiliepimai ir nepriklausomi tyrimai rodo, kad platesnė bendruomenė yra patenkinta, kai įdarbintojai naudoja AI.
„Jie turi turėti patirties, kuri būtų kviečianti, įtraukianti ir pritraukianti daugiau įvairovės“, – sako Hymanas. Ji sako, kad Sapia nelaikoma, mažai įtempta, tekstu pagrįsta sistema atitinka šiuos kriterijus.
„Naudodami dirbtinį intelektą dvigubai didesnė tikimybė susilaukti moterų ir išlaikyti moteris samdymo procese. Tai visiška fikcija, kad žmonės to nenori ir nepasitiki. Savo duomenyse matome visiškai priešingą.
Hymanas sako, kad „Sapia“ kalbos analizė yra pagrįsta „milijonais žodžių duomenų“, surinktų iš atsakymų per metus nuo technologijų įmonės įkūrimo 2013 m. Nuotrauka: Ellen Smith / The GuardianAustralijos Įvairovės tarybos ir Monasho universiteto tyrimai nėra tokie entuziastingi, nes rodo, kad tarp darbdavių ir kandidatų, kurie buvo „atsivertę“ arba „atsargiai“ dirbtinio intelekto įdarbinimo įrankius, yra „aiški takoskyra“, nes 50 proc. technologijų, bet tik trečdalis pretendentų į darbą. Pirmųjų tautų darbo kandidatai buvo vieni iš tų, kurie greičiausiai nerimauja.
DCA rekomenduoja įdarbintojams skaidriai susipažinti su deramo patikrinimo protokolais, kuriuos jie turi, siekdami užtikrinti, kad dirbtinio intelekto palaikomos įdarbinimo priemonės būtų „nešališkos, įtraukiančios ir prieinamos“.
Sapia demonstracijoje AI greitai sugeneruoja trumpas pastabas apie asmenybės atsiliepimus pašnekovo paraiškos pabaigoje.
Tai pagrįsta tuo, kaip kažkas vertina įvairius žymenis, įskaitant sąžiningumą ir malonumą, kuriuos dirbtinis intelektas suderina su iš anksto parašytomis frazėmis, panašiomis į tai, ką gali pasakyti gyvenimo treneris.
Išsamesnis įvertinimas – pareiškėjui nematomas – būtų nusiųstas įdarbintojui.
„Sapia“ teigia, kad jos pokalbių interviu programinė įranga išanalizavo kalbos mokėjimą, taip pat įtraukė nešvankybių detektorių, o bendrovė teigė, kad tai buvo svarbūs aspektai atliekant klientų poreikius.
Hymanas teigia, kad kalbos analizė pagrįsta „milijardais žodžių duomenų“, surinktų iš atsakymų, gautų per metus nuo technologijų įmonės įkūrimo 2013 m. Patys duomenys yra nuosavybės teise.
Jūs (ne) įdarbintas!
Taigi, ar „Guardian Australian“ galėtų dirbti Michaelui Scottui išgalvotoje popieriaus įmonėje „Dunder Mifflin“?
„Esate pasitikintis savimi, bet per daug nepasitiki“, – sakoma asmenybės atsiliepime, atsakant į „Guardian Australia“ paraišką dirbtinio intelekto demonstracijoje.
Iš to seka subtilus pasiūlymas, kad šis kandidatas gali netikti registratorės pareigoms, kurioms reikia „kartoti, laikytis rutinos ir laikytis nustatyto proceso“.
Tačiau jame yra keletas naudingų patarimų: „Galite subalansuoti tai su įvairove ne darbo metu“.
Atrodo, kad nesame tinkami šiam darbui.

