Kreditas: Pixabay / CC0 viešasis domenas Vaizdo įraše iš sausio 25 d. naujienų reportažo prezidentas Joe Bidenas kalba apie tankus. Tačiau patobulinta vaizdo įrašo versija šią savaitę socialinėje žiniasklaidoje sulaukė šimtų tūkstančių peržiūrų, todėl atrodė, kad jis pasakė kalbą, kurioje puola translyčius žmones.
Skaitmeninės kriminalistikos ekspertai teigia, kad vaizdo įrašas buvo sukurtas naudojant naujos kartos dirbtinio intelekto įrankius, leidžiančius bet kam, vos keliais mygtuko paspaudimais, greitai generuoti garsą, imituojantį žmogaus balsą. Ir nors Bideno klipui socialinėje žiniasklaidoje šį kartą galbūt nepavyko apgauti daugumos vartotojų, klipas parodo, kaip dabar lengva žmonėms kurti neapykantos ir dezinformacijos kupinus „giliai padirbtus“ vaizdo įrašus, kurie gali padaryti žalos realiame pasaulyje.
„Tokie įrankiai, kaip šis, iš esmės įpils daugiau kuro į ugnį“, – sakė Hafizas Malikas, Mičigano universiteto elektros ir kompiuterių inžinerijos profesorius, daugiausia dėmesio skiriantis daugialypės terpės teismo ekspertizei. – Pabaisa jau laisvėje.
Jis pasirodė praėjusį mėnesį su ElevenLabs balso sintezės platformos beta faze, kuri leido vartotojams generuoti tikrovišką bet kurio asmens balso garsą įkeliant kelių minučių garso pavyzdžius ir įvesdami bet kokį tekstą.
Startuolis teigia, kad ši technologija buvo sukurta siekiant įgarsinti garsą įvairiomis filmų, garso knygų ir žaidimų kalbomis, kad būtų išsaugotas kalbėtojo balsas ir emocijos.
Socialinės žiniasklaidos vartotojai greitai pradėjo dalytis dirbtinio intelekto sukurtu garso pavyzdžiu, kuriame Hillary Clinton skaito tą patį transfobišką tekstą, rodomą Bideno klipe, kartu su netikrais Billo Gateso garso klipais, kuriuose tariamai sakoma, kad COVID-19 vakcina sukelia AIDS, o aktorė Emma Watson tariamai skaito. Hitlerio manifestas „Mein Kampf“.
Netrukus po to „ElevenLabs“ tviteryje paskelbė, kad mato „vis daugiau piktnaudžiavimo balsu klonavimo atvejų“, ir paskelbė, kad dabar tiria apsaugos priemones, kaip sumažinti piktnaudžiavimą. Vienas iš pirmųjų žingsnių buvo padaryti šią funkciją prieinamą tik tiems, kurie pateikia mokėjimo informaciją. Iš pradžių anoniminiai vartotojai galėjo nemokamai pasiekti balso klonavimo įrankį. Bendrovė taip pat teigia, kad jei kyla problemų, ji gali atsekti bet kokį sugeneruotą garsą iki kūrėjo.
Tačiau net galimybė sekti kūrėjus nesumažins įrankio žalos, sakė Kalifornijos universiteto Berklio profesorius Hany Faridas, kuris daugiausia dėmesio skiria skaitmeninei teismo ekspertizei ir dezinformacijai.
„Žala padaryta“, – sakė jis.
Pavyzdžiui, Faridas teigė, kad blogi aktoriai gali išjudinti akcijų rinką su netikru aukščiausiojo generalinio direktoriaus garsu, sakydami, kad pelnas mažėja. „YouTube“ jau yra klipas, kuriame įrankiu buvo pakeistas vaizdo įrašas, kad jis atrodytų, Bidenas sakė, kad JAV pradeda branduolinę ataką prieš Rusiją.
Internete taip pat atsirado nemokama atvirojo kodo programinė įranga su tokiomis pačiomis galimybėmis, o tai reiškia, kad komercinių įrankių mokamos sienos nėra kliūtis. Naudodamas vieną nemokamą internetinį modelį, AP vos per kelias minutes sukūrė garso pavyzdžius, kurie skamba kaip aktoriai Danielis Craigas ir Jennifer Lawrence.
„Kyla klausimas, kur rodyti pirštu ir kaip džiną įkišti atgal į butelį? Malikas pasakė. – Mes negalime to padaryti.
Kai prieš maždaug penkerius metus gilios klastotės pirmą kartą pateko į antraštes, jas buvo pakankamai lengva aptikti, nes objektas nemirksėjo, o garsas skambėjo kaip robotas. To nebėra, nes įrankiai tampa vis sudėtingesni.
Pavyzdžiui, pakeistame vaizdo įraše, kuriame Bidenas paniekinančius komentarus apie translyčius žmones, sujungė dirbtinio intelekto sukurtą garsą su tikru prezidento klipu, paimtu iš sausio 25 d. tiesioginės CNN transliacijos, skelbiančios apie JAV tankų išsiuntimą į Ukrainą. Bideno burna buvo manipuliuojama vaizdo įraše, kad atitiktų garso įrašą. Nors dauguma „Twitter“ vartotojų pripažino, kad turinys nebuvo toks, apie ką Bidenas galėjo pasakyti, vis dėlto jie buvo šokiruoti, kaip jis pasirodė tikroviškas. Atrodė, kad kiti tikėjo, kad tai tikra, arba bent jau nežinojo, kuo tikėti.
Holivudo studijos jau seniai galėjo iškraipyti tikrovę, tačiau prieiga prie šios technologijos buvo demokratizuota neatsižvelgiant į pasekmes, sakė Faridas.
„Tai labai, labai galingos dirbtiniu intelektu pagrįstos technologijos, naudojimo paprastumo ir fakto, kad modelis atrodo toks, derinys: įkelkime jį į internetą ir pažiūrėkime, kas bus toliau“, – sakė Faridas.
Garsas yra tik viena sritis, kurioje AI sukurta dezinformacija kelia grėsmę.
Nemokami internetiniai dirbtinio intelekto vaizdų generatoriai, tokie kaip „Midjourney“ ir „DALL-E“, gali pateikti fotorealistinius karo ir stichinių nelaimių vaizdus senų žiniasklaidos priemonių stiliumi, naudodami paprastą teksto raginimą. Praėjusį mėnesį kai kurie JAV mokyklų rajonai pradėjo blokuoti „ChatGPT“, kuris pagal pareikalavimą gali parengti skaitomą tekstą, pavyzdžiui, studentų kursinius darbus.
„ElevenLabs“ neatsakė į prašymą pakomentuoti.
© 2023 The Associated Press. Visos teisės saugomos. Šios medžiagos negalima skelbti, transliuoti, perrašyti ar platinti be leidimo.
Citata: Nauji AI balso klonavimo įrankiai „prideda kuro“ į dezinformacijos gaisrą (2023 m. vasario 11 d.), gauti 2023 m. vasario 11 d. iš https://techxplore.com/news/2023-02-ai-voice-cloning-tools-fuel-desinformation .html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.