Kreditas: Markusas Winkleris iš Pexels 2022 m. vasario 18 d. vakare Ukrainos naujienų svetainės lankytojus pasitiko pažįstamas vaizdas – vaizdo įrašas, kuriame jų prezidentas sako kalbą. Nors panašumas buvo, veidas atrodė šiek tiek nesusijęs su Ukrainos prezidento galva.
Vaizdo įraše Volodymyras Zelenskis paskelbė, kad karas baigėsi, o tai, kad dauguma Ukrainos žmonių žinojo, yra klaidingas. Tai buvo netikras vaizdo įrašas. Kol tai vyko internete, kanalo tiesioginės televizijos kanalo ekrano apačioje esantis žymeklis skaitė tą patį pranešimą. Ji vėl melagingai teigė, kad Ukraina pasiduoda.
Mūsų komanda Lero tyrimų centre Korko universiteto koledže ką tik paskelbė pirmą tokio pobūdžio tyrimą, kuriame nagrinėjami būdai, kuriais giliai padirbti vaizdo įrašai buvo pateikiami ir aptariami „Twitter“ pirmaisiais Rusijos invazijos į Ukrainą mėnesiais.
Deepfake technologija yra naujausia technologinė plėtra, kuri iš esmės leidžia žmonėms kurti vaizdo įrašus apie įvykius, kurie niekada neįvyko. Atrodo, kad tai ypač tinka dezinformacijos, dezinformacijos ir „netikrų naujienų“ skleidimui socialinės žiniasklaidos platformose ir kitur internete. Deepfakes taip pat labai tinka naudoti kibernetinėje kovoje.
Vaizdo įrašai manipuliuojami naudojant dirbtinio intelekto technologiją ir dažniausiai maišomas tikras ir netikras turinys. Dėl to jie atrodo tikroviškesni ir įtikinamesni nei vaizdo įrašai, sukurti naudojant AI. Pvz., Deepfake technologija gali nufilmuoti tikrą vaizdo įrašą ir sukeisti dviejų žmonių veidus tame vaizdo įraše arba pakeisti lūpų judesius taip, kad atrodo, kad žmogus sako kažką kitaip, nei pasakė iš pradžių.
Komentatoriai ir akademikai atkreipė dėmesį į tai, kad netikrus vaizdo įrašus galima sukurti daug lengviau ir greičiau naudojant gilią klastotę technologiją nei ankstesniais metodais.
Pasitikėjimo praradimas
Mūsų tyrimas nustatė daug atvejų, kai giliųjų klastotės sukėlė abejonių ar painiavos. Stebėtina, kad mūsų duomenys parodė atvejus, kai žmonės apkaltino tikrus vaizdo įrašus, kad jie yra netikri. Taip pat radome įrodymų, kad žmonės prarado pasitikėjimą visais konflikto vaizdo įrašais, kai kurie žmonės pritarė teorijoms, kad pasaulio lyderiai mirė ir buvo pakeisti netikrais klastotėmis.
Iš daugelio per Rusijos ir Ukrainos karą internete naudotų gilių klastočių pavyzdžių bene labiausiai baugino Zelenskio pavyzdys, teigęs, kad karas baigėsi. Taip yra todėl, kad buvo pabrėžta, kaip gilios klastotės gali būti naudojamos kartu su įsilaužtomis žiniasklaidos paslaugomis, siekiant skleisti prieštaringus pranešimus. Grynasis šio incidento rezultatas buvo tai, kad iš patikimo šaltinio buvo išplatinta melaginga informacija. Panašūs netikri vaizdo įrašai apie Rusijos prezidento Vladimiro Putino pasidavimą taip pat pasirodė per karą.
2022 m. pasirodė netikras prezidento Zelenskio vaizdo įrašas, melagingai informuojantis ukrainiečius, kad kariuomenė pasidavė. Mūsų tyrimas yra pirmasis akademinis giliųjų klastotės poveikio karo metu tyrimas. Siekdami išsiaiškinti, kaip buvo naudojamos gilios klastotės ankstyvosiomis Rusijos invazijos į Ukrainą dienomis, pirmiausia sukūrėme įvairių gilių klastotės, kurios buvo išplatintos anksti invazijos metu, laiko juostą. Negalėjome užfiksuoti kiekvieno išryškėjusio padirbinėjimo, tačiau stengėmės rasti ryškiausius ir didžiausią įtaką turinčius pavyzdžius. Tada išanalizavome, kaip tie vaizdo įrašai buvo aptariami „Twitter“ (dabar vadinami X).
Humoras, painiava ir skepticizmas
Daugelis per konfliktą sukurtų padirbinių buvo humoristinio pobūdžio, kai kurie susiję su Putino įtraukimu į tokius filmus kaip „Nupuolis“ („Der Untergang“) arba 1940 m. Charlie Chaplino filmas „Didysis diktatorius“. Ukrainos vyriausybė taip pat padarė giliųjų klastotės (ir CGI) vaizdo įrašus, siekdama šviesti žmones apie konfliktą.
Įdomu tai, kad demonstruoti Ukrainos gebėjimą kurti melagingus vaizdo įrašus, nors jie buvo mokomieji, galėjo duoti priešingų rezultatų. Jie sukėlė žiūrovų nepasitikėjimą ir įtarumą tikra žiniasklaida.
Didžioji dalis diskusijų apie giliųjų klastotes internete buvo susijusi su sveiku skepticizmu, pavyzdžiui, patarimais, kaip patikrinti faktus ir aptikti gilius klastojimus. Tačiau taip pat radome daugybę vaizdo įrašų, kuriuos žmonės melagingai tvirtino, kad jie yra padirbti, pavyzdžių. Tokių vaizdo įrašų buvo dvi kategorijos. Pirma, daugelis vaizdo įrašų pasirodė esąs žemų technologijų klastotės, pavyzdžiui, su klaidingais subtitrais arba vaizdo įrašai, kuriuose vaizduojami kitų karų įvykiai, pateikti kaip įvykių Ukrainoje įrodymai.
Antra, radome daug tikrų vaizdo įrašų apie įvykius Ukrainoje, kuriuos komentatoriai melagingai apkaltino klastojimu. Pasitikėjimo realia žiniasklaida praradimas yra rimta „deepfake“ pasekmė ir tik skatina kurti į „deepfake“ orientuotas sąmokslo teorijas.
Išmokti pamokas
Kokias pamokas paprastas socialinės žiniasklaidos vartotojas gali pasimokyti iš šio tyrimo? Per pastaruosius penkerius metus padirbtų vaizdo įrašų paplitimas internete išaugo, o technologinis padirbtų vaizdo įrašų aptikimas šiuo metu nėra pakankamai tikslus, kad būtų pats sprendimas. Svarbu skatinti gerą asmenų žiniasklaidos raštingumą, siekiant suderinti sveiką ir nesveiką skepticizmą.
Reikia skeptiškai žiūrėti į labai uždegančią žiniasklaidą ir laukti, kol tokias naujienas patvirtins keli patikimi šaltiniai. Kitoje monetos pusėje žmonės turėtų būti atsargūs ir melagingai neapkaltinti vaizdo įrašų, kad jie yra padirbti.
Svarbu neprarasti pasitikėjimo kiekviena žiniasklaida, su kuria susiduriame, ypač kai padirbinėjimai internete nėra ypač paplitę. Vienas dalykas yra aiškus: gilios suklastotos dezinformacijos klausimas bus visų galvose, nes pasauliniai konfliktai vystosi per šį dešimtmetį ir vėliau.
Šis straipsnis iš naujo paskelbtas iš The Conversation pagal Creative Commons licenciją. Skaitykite originalų straipsnį.
Citata: Deepfakes kare: naujų rūpesčių kyla dėl jų naudojimo Rusijos invazijos į Ukrainą metu (2023 m. spalio 29 d.), gauta 2023 m. spalio 29 d. iš https://techxplore.com/news/2023-10-deepfakes-warfare-emerge-russian- invazija.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.