Kreditas: Pixabay / CC0 viešasis domenas Dirbtinis intelektas šiais laikais reklamuojamas kaip panacėja beveik visoms skaičiavimo problemoms spręsti – nuo medicininės diagnostikos iki bevairių automobilių iki sukčiavimo prevencijos.
Tačiau kai AI nepavyksta, jis tai daro „gana įspūdingai“, sako Vernas Glaseris iš Albertos verslo mokyklos. Neseniai atliktame savo tyrime „Kai valdo algoritmai, vertybės gali nykti“ Glaseris paaiškina, kaip žmogaus vertybės dažnai yra įtraukiamos į AI efektyvumo reikalavimą ir kodėl išlaidos gali būti didelės.
„Jei aktyviai nesistengsite apgalvoti vertybių pasekmių, tai baigsis blogais rezultatais“, – sako jis.
Kai sugenda robotai
Glaseris kaip vieną blogų rezultatų pavyzdį nurodo Microsoft Tay. Kai 2016 m. „Twitter“ buvo pristatytas pokalbių robotas, jis buvo atšauktas per 24 valandas po to, kai troliai išmokė jį skleisti rasistinę kalbą.
Tada kilo 2015 m. „robodebt“ skandalas, kai Australijos vyriausybė naudojo AI, kad nustatytų nedarbo ir invalidumo pašalpų permokas. Tačiau algoritmas darė prielaidą, kad kiekvienas neatitikimas atspindi permoką ir automatiškai išsiuntė pranešimus, reikalaudami grąžinti pinigus. Jei kas neatsiliepė, byla buvo perduota išieškotojui.
Iki 2019 m. programa nustatė daugiau nei 734 000 permokų, kurių vertė – du milijardai Australijos dolerių (1,8 milijardo Kanados dolerių).
„Idėja buvo ta, kad pašalinus žmogaus vertinimą, kurį formuoja šališkumas ir asmeninės vertybės, automatizuota programa priimtų geresnius, teisingesnius ir racionalesnius sprendimus už daug mažesnę kainą“, – sako Glaseris.
Tačiau žmonijos pasekmės buvo siaubingos, sako jis. Parlamento apžvalgose nustatyta, kad „iš esmės trūksta procedūrinio teisingumo“, o programa buvo pavadinta „neįtikėtinai atimtančia tų žmonių, kurie buvo paveikti, galių, sukelianti didelę emocinę traumą, stresą ir gėdą“, įskaitant mažiausiai dvi savižudybes.
Nors dirbtinis intelektas žada atnešti didžiulę naudą visuomenei, dabar pradedame matyti ir tamsią jo papilvę, sako Glaseris. Neseniai paskelbtoje „Globe and Mail“ skiltyje Lawrence’as Martinas atkreipia dėmesį į DI distopines galimybes, įskaitant autonominius ginklus, galinčius šaudyti be žmogaus priežiūros, kibernetines atakas, gilias klastotes ir dezinformacijos kampanijas. Buvęs „Google“ generalinis direktorius Ericas Schmidtas perspėjo, kad dirbtinis intelektas gali būti gana lengvai naudojamas žudančių biologinių ginklų gamybai.
Glaseris savo analizę grindžia prancūzų filosofo Jacques’o Ellulio „technikos“ sąvoka, pasiūlyta 1954 m. knygoje „Technologinė visuomenė“, pagal kurią kiekvieną žmogaus veiklos sritį lemia efektyvumo ir produktyvumo imperatyvai.
„Ellulas buvo labai įžvalgus“, – sako Glaseris. „Jo argumentas yra toks, kad kai jūs išgyvenate šį technikos procesą, jūs iš prigimties pašalinate vertybes ir sukuriate šį mechaninį pasaulį, kuriame jūsų vertybės iš esmės sumažinamos iki efektyvumo.
„Nesvarbu, ar tai AI, ar ne. AI daugeliu atžvilgių yra galbūt tik galutinis to pavyzdys.”
Principingas požiūris į AI
Norėdamas apsisaugoti nuo dirbtinio intelekto „technikos tironijos“, Glaseris siūlo laikytis trijų principų. Pirma, atpažinkite, kad kadangi algoritmai yra matematiniai, jie remiasi „tarpiniais serveriais“ arba skaitmeniniais realių reiškinių atvaizdais.
Pavyzdžiui, vienas iš būdų, kaip „Facebook“ vertina draugystę, yra tai, kiek draugų turi vartotojas, arba pagal draugų įrašų paspaudimų „Patinka“ skaičių.
„Ar tai tikrai draugystės matas? Tai kažko matas, bet ar tai iš tikrųjų yra draugystė, jau kitas klausimas”, – sako Glaseris ir priduria, kad žmonių santykių intensyvumas, pobūdis, niuansai ir sudėtingumas gali būti lengvai nepastebėti.
„Kai skaitmenizuojate reiškinius, iš esmės kažką pavaizduojate kaip skaičių. Ir kai gaunate tokį operatyvumą, lengva pamiršti, kad tai yra supaprastinta platesnės koncepcijos versija.”
AI dizaineriams Glaseris rekomenduoja strategiškai įtraukti žmogaus įsikišimą į algoritminių sprendimų priėmimą ir sukurti vertinimo sistemas, kuriose atsižvelgiama į kelias vertes.
„Yra tendencija, kai žmonės taiko algoritminį sprendimų priėmimą vieną kartą, o tada paleidžia“, – sako jis, tačiau dirbtinis intelektas, įkūnijantis žmogiškąsias vertybes, reikalauja budrios ir nuolatinės priežiūros, kad neatsirastų bjaurių galimybių.
Kitaip tariant, dirbtinis intelektas yra tiesiog atspindys to, kas mes esame – geriausiais ir blogiausiais. Be gero, griežto žvilgsnio į veidrodį, pastarasis galėtų imti viršų.
„Norime įsitikinti, kad suprantame, kas vyksta, todėl AI mūsų nevaldo“, – sako jis. „Svarbu nepamiršti tamsiosios pusės. Jei galime tai padaryti, tai gali būti socialinio gėrio jėga.”
Daugiau informacijos: Kai valdo algoritmai, vertybės gali nunykti. sloanreview.mit.edu/article/wh … e-values-can-wither/
Citata: tyrimas atskleidžia tamsiąją AI pusę (2023 m., balandžio 6 d.), gautas 2023 m. balandžio 7 d. iš https://techxplore.com/news/2023-04-dark-side-ai.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

