Remiantis „Guardian“ tyrimu, vyriausybės pareigūnai naudoja dirbtinį intelektą (AI) ir sudėtingus algoritmus, kad padėtų nuspręsti, kas gauna pašalpas ir kas turi patvirtinti santuokos licenciją.
Išvados atskleidžia atsitiktinį ir dažnai nekontroliuojamą būdą, kaip visame Whitehalle naudojamos pažangiausios technologijos.
Tyrimas rodo, kad mažiausiai aštuonių Whitehall departamentų valstybės tarnautojai ir kelios policijos pajėgos naudoja dirbtinį intelektą įvairiose srityse, bet ypač kai reikia padėti jiems priimti sprendimus dėl gerovės, imigracijos ir baudžiamosios justicijos.
„The Guardian“ atskleidė įrodymų, kad kai kurios naudojamos priemonės gali duoti diskriminacinių rezultatų, pavyzdžiui:
Darbo ir pensijų departamento (DWP) naudojamas algoritmas, kuris, parlamentaro manymu, klaidingai privedė prie to, kad dešimtims žmonių buvo panaikintos pašalpos.
Nustatyta, kad Metropoliteno policijos naudojamas veido atpažinimo įrankis tam tikromis aplinkybėmis daro daugiau klaidų atpažindamas juodus veidus nei baltus.
Vidaus reikalų ministerijos naudojamas fiktyvioms santuokoms pažymėti naudojamas algoritmas, dėl kurio neproporcingai atrenkami tam tikrų tautybių žmonės.
Dirbtinis intelektas paprastai yra „apmokomas“ naudojant didelį duomenų rinkinį, o tada analizuoja tuos duomenis tokiais būdais, kurių kartais nesupranta net tie, kurie sukūrė įrankius.
Jei duomenys rodo diskriminaciją, ekspertai perspėja, AI įrankis taip pat gali sukelti diskriminacinių pasekmių.
Rishi Sunak neseniai šmaikščiais žodžiais kalbėjo apie tai, kaip dirbtinis intelektas galėtų pakeisti viešąsias paslaugas: „nuo mokytojų šimtų valandų, praleistų planuojant pamokas, sutaupymo iki pagalbos NHS pacientams greičiau nustatyti diagnozę ir atlikti tikslesnius tyrimus“.
Tačiau jo naudojimas viešajame sektoriuje anksčiau buvo prieštaringas, pavyzdžiui, Nyderlanduose, kur mokesčių institucijos naudojo jį, kad pastebėtų galimą sukčiavimą vaiko priežiūros išmokomis, tačiau buvo nubaustas 3,7 mln. skurdas.
Ekspertai nerimauja dėl to skandalo pasikartojimo Jungtinėje Karalystėje, perspėdami, kad britų pareigūnai naudoja menkai suprantamus algoritmus, kad priimtų gyvenimą keičiančius sprendimus, tų sprendimų paveiktiems žmonėms net apie tai nežinodami. Daugelis nerimauja dėl to, kad šiais metais buvo panaikinta nepriklausoma vyriausybės patariamoji taryba, kurioje viešojo sektoriaus įstaigos buvo atsakingos už tai, kaip jos naudojo dirbtinį intelektą.
Shameem Ahmad, viešosios teisės projekto vadovas, sakė: „AI turi didžiulį socialinio gėrio potencialą. Pavyzdžiui, galime padaryti viską efektyvesnį. Tačiau negalime ignoruoti rimtų pavojų.
„Nesiėmę skubių veiksmų, galėtume užmigti, kai nepermatomos automatizuotos sistemos yra reguliariai, galbūt neteisėtai, naudojamos gyvenimą keičiančiais būdais, ir kai žmonės negalės ieškoti žalos atlyginimo, kai šie procesai nepavyks.
Marion Oswald, Northumbria universiteto teisės profesorius ir buvęs vyriausybės patariamosios tarybos duomenų etikos klausimais narys, sakė: „Trūksta nuoseklumo ir skaidrumo, kaip dirbtinis intelektas naudojamas viešajame sektoriuje. Daugelis šių priemonių turės įtakos daugeliui žmonių kasdieniame gyvenime, pavyzdžiui, tiems, kurie pretenduoja į pašalpas, tačiau žmonės nesupranta, kodėl jomis naudojamos, ir neturi galimybės joms užginčyti.
Sunakas kitą savaitę rinks valstybių vadovus Bletchley parke į tarptautinį aukščiausiojo lygio susitikimą dirbtinio intelekto saugos klausimais. Aukščiausiojo lygio susitikime, kuriame Downing Street tikisi, kad ateinančiais metais bus nustatytos dirbtinio intelekto plėtros visame pasaulyje sąlygos, daugiausia dėmesio bus skiriama galimai pažangių algoritminių modelių keliamai grėsmei visai žmonijai.
Tačiau daugelį metų valstybės tarnautojai naudojasi ne tokiais sudėtingais algoritminiais įrankiais, kurie padeda priimti įvairius sprendimus dėl kasdieninio žmonių gyvenimo.
Kai kuriais atvejais įrankiai yra paprasti ir skaidrūs, pvz., elektroniniai pasų vartai arba numerio atpažinimo kameros, kurios abi naudoja AI teikiamą vizualinio atpažinimo programinę įrangą.
Tačiau kitais atvejais programinė įranga yra galingesnė ir mažiau akivaizdi tiems, kuriuos ji paveikė.
Kabineto biuras neseniai pristatė „algoritminį skaidrumo ataskaitų teikimo standartą“, kuris skatina departamentus ir policijos institucijas savanoriškai atskleisti, kur jie naudoja dirbtinį intelektą, kad padėtų priimti sprendimus, galinčius turėti esminės įtakos plačiajai visuomenei.
Šešios organizacijos įtraukė projektus į sąrašą pagal naują skaidrumo standartą.
The Guardian išnagrinėjo tuos projektus, taip pat atskirą duomenų bazę, kurią sudarė Viešosios teisės projektas. Tada „The Guardian“ kiekvienam JK vyriausybės departamentui ir policijos institucijoms pateikė informacijos laisvės užklausas, kad susidarytų išsamesnį vaizdą apie tai, kur AI šiuo metu priima sprendimus, turinčius įtakos žmonių gyvenimui.
Rezultatai rodo, kad mažiausiai aštuoni Whitehall skyriai vienaip ar kitaip naudoja dirbtinį intelektą, kai kurie daug dažniau nei kiti.
Kaip AI balso klonas suklaidino „Centrelink“ – vaizdo įrašasNHS naudojo dirbtinį intelektą įvairiais atvejais, įskaitant per Covid pandemiją, kai pareigūnai jį naudojo siekdami nustatyti rizikos grupei priklausančius pacientus, kuriems reikėtų patarti apsisaugoti.
Vidaus reikalų ministerija pranešė, kad naudojo dirbtinį intelektą elektroniniams vartams, kad galėtų skaityti pasus oro uostuose, padėti pateikti prašymus išduoti pasus ir departamento „fiktyviosios santuokos įrankį“, kuris žymi galimas netikras santuokas tolesniam tyrimui.
„Guardian“ pateiktas vidinis Vidaus reikalų ministerijos vertinimas rodo, kad įrankis neproporcingai žymi žmones iš Albanijos, Graikijos, Rumunijos ir Bulgarijos.
Tuo tarpu DWP turi „integruotą rizikos ir žvalgybos tarnybą“, kuri naudoja algoritmą, padedantį aptikti išmokų gavėjų sukčiavimą ir klaidas. Leiboristų parlamentarė Kate Osamor mano, kad šio algoritmo naudojimas galėjo prisidėti prie to, kad pastaraisiais metais dešimtims bulgarų staiga buvo sustabdytos išmokos, nes jie buvo klaidingai pažymėti kaip galimai apgaulingi pareiškimai.
DWP reikalauja, kad algoritmas neatsižvelgtų į pilietybę. Atstovas pridūrė: „Mes kovojame su tais, kurie bando išnaudoti sistemą ir begėdiškai vogti iš tų, kuriems labiausiai reikia pagalbos, ir toliau stengiamės kitais metais sutaupyti mokesčių mokėtojui 1,3 mlrd.
Nei DWP, nei Vidaus reikalų ministerija nepateiks išsamios informacijos apie tai, kaip veikia automatizuoti procesai, tačiau abu teigė, kad jų naudojami procesai yra sąžiningi, nes galutinius sprendimus priima žmonės. Tačiau daugelis ekspertų nerimauja, kad šališki algoritmai lems šališkus galutinius sprendimus, nes pareigūnai gali peržiūrėti tik jiems pažymėtas bylas ir dažnai turi ribotą laiką tai padaryti.