Kreditas: CC0 viešasis domenas Dirbtinis intelektas (DI) ir algoritmai gali ir yra naudojami radikalizuoti, poliarizuoti ir skleisti rasizmą bei politinį nestabilumą, sako Lankasterio universiteto akademikas.
Lankasterio universiteto Tarptautinio saugumo profesorius Joe Burtonas teigia, kad dirbtinis intelektas ir algoritmai yra ne tik įrankiai, kuriuos naudoja nacionalinės saugumo agentūros, siekdamos užkirsti kelią kenkėjiškam veikimui internete, bet gali prisidėti prie poliarizacijos, radikalizmo ir politinio smurto, keliančių grėsmę nacionaliniam saugumui.
Be to, jis sako, kad pakeitimo vertybiniais popieriais procesai (technologiją pateikiant kaip egzistencinę grėsmę) buvo labai svarbūs kuriant, naudojant dirbtinį intelektą ir sukeltus žalingus padarinius.
Profesoriaus Burtono straipsnis „Algoritminis ekstremizmas? Dirbtinio intelekto (DI) pakeitimas saugumu ir jo įtaka radikalizmui, poliarizacijai ir politiniam smurtui“ publikuojamas m. Technologijos visuomenėje.
„DI dažnai suformuluota kaip priemonė, skirta kovoti su smurtiniu ekstremizmu“, – sako profesorius Burtonas. „Čia yra kita diskusijos pusė“.
Straipsnyje nagrinėjama, kaip dirbtinis intelektas buvo saugomas per visą savo istoriją, žiniasklaidos ir populiariosios kultūros vaizduose, ir nagrinėjami šiuolaikiniai DI, turinčio poliarizuojantį, radikalizuojantį poveikį, kuris prisidėjo prie politinio smurto, pavyzdžius.
Straipsnyje cituojama klasikinė filmų serija „Terminatorius“, kurioje vaizduojamas „sudėtingo ir piktybinio“ dirbtinio intelekto įvykdytas holokaustas, labiau už viską padedantis sutvirtinti žmonių supratimą apie dirbtinį intelektą ir baimę, kad mašinų sąmonė gali sukelti pražūtingų pasekmių. žmonija – šiuo atveju branduolinis karas ir tyčinis bandymas sunaikinti rūšį.
„Šis nepasitikėjimas mašinomis, su jomis susijusiomis baimėmis ir jų siejimu su biologinėmis, branduolinėmis ir genetinėmis grėsmėmis žmonijai prisidėjo prie vyriausybių ir nacionalinio saugumo agentūrų noro daryti įtaką technologijų plėtrai, sušvelninti rizikuoti ir (kai kuriais atvejais) panaudoti jos teigiamą potencialą“, – rašo profesorius Burtonas.
Profesorius Burtonas teigia, kad sudėtingų bepiločių orlaivių, pavyzdžiui, naudojamų Ukrainos kare, vaidmuo dabar yra visiškai savarankiškas, įskaitant tokias funkcijas kaip taikinio identifikavimas ir atpažinimas.
Ir nors vyko plačios ir įtakingos kampanijos diskusijos, įskaitant JT, uždrausti „robotus žudikus“ ir informuoti žmones, kai reikia priimti sprendimus dėl gyvybės ar mirties, paspartinti ir integruoti Pasak jo, ginkluoti bepiločiai orlaiviai ir toliau sparčiai veikė.
Kibernetinio saugumo srityje – kompiuterių ir kompiuterių tinklų saugumui – AI yra plačiai naudojamas, o labiausiai paplitusi sritis yra (dez)informacija ir internetinis psichologinis karas.
Putino vyriausybės veiksmai prieš JAV rinkimų procesus 2016 m. ir po to kilęs „Cambridge Analytica“ skandalas parodė, kad dirbtinis intelektas gali būti derinamas su dideliais duomenimis (įskaitant socialinę žiniasklaidą), kad būtų sukurti politiniai efektai, orientuoti į poliarizaciją, radikalių įsitikinimų skatinimą ir manipuliavimą tapatybės grupėmis. . Tai parodė AI galią ir potencialą skaldyti visuomenes.
Pandemijos metu AI buvo vertinamas kaip teigiamas viruso sekimo ir atsekimo veiksnys, tačiau tai taip pat sukėlė susirūpinimą dėl privatumo ir žmogaus teisių.
Straipsnyje nagrinėjama pati AI technologija, teigiama, kad yra problemų kuriant AI, duomenis, kuriais ji remiasi, kaip jie naudojami, taip pat dėl jos rezultatų ir poveikio.
Straipsnis baigiamas stipria žinia tyrėjams, dirbantiems kibernetinio saugumo ir tarptautinių santykių srityse.
„AI neabejotinai gali pakeisti visuomenę teigiamais būdais, tačiau taip pat kelia pavojų, kurį reikia geriau suprasti ir valdyti“, – rašo profesorius Burtonas, kibernetinių konfliktų ir naujų technologijų ekspertas, dalyvaujantis universiteto saugumo ir apsaugos mokslo iniciatyvoje.
„Akivaizdu, kad labai svarbu suprasti, koks yra skleidžiamas technologijos poveikis visuose jos kūrimo ir naudojimo etapuose.
„Mokslininkai, dirbantys kibernetinio saugumo ir tarptautinių santykių srityse, turi galimybę įtraukti šiuos veiksnius į besiformuojančią AI tyrimų darbotvarkę ir vengti AI traktuoti kaip politiškai neutralią technologiją.
„Kitaip tariant, dirbtinio intelekto sistemų saugumas ir tai, kaip jos naudojamos tarptautinėse, geopolitinėse kovose, neturėtų viršyti susirūpinimo dėl jų socialinio poveikio.
Daugiau informacijos: Joe Burton, Algoritminis ekstremizmas? Dirbtinio intelekto (DI) pakeitimas saugumu ir jo poveikis radikalizmui, poliarizacijai ir politiniam smurtui, Technologijos visuomenėje (2023). DOI: 10.1016/j.techsoc.2023.102262
Citata: AI turėtų būti geriau suprantamas ir valdomas, įspėja nauji tyrimai (2023 m. lapkričio 2 d.), gauti 2023 m. lapkričio 2 d. iš https://techxplore.com/news/2023-11-ai-understood.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.