Mūsų atakų prieš vaizdo vandens ženklų metodus iliustracija. Viršutiniame skydelyje pavaizduota difuzinio valymo ataka, skirta mažo trikdymo biudžeto (nepastebimo) vandens ženklams. Tai prideda prie vaizdų Gauso triukšmo, sukuriant neišskiriamą sritį, dėl kurios nustatoma sertifikuota apatinė vandens ženklų detektorių paklaidos riba. Triukšmingi vaizdai pašalinami naudojant difuzijos modelius. Apatiniame skydelyje pavaizduota mūsų modelio pakaitalo priešiška ataka prieš didelius trukdžius biudžeto vandens ženklus. Mūsų ataka apima pakaitinio klasifikatoriaus mokymą, PGD ataką prieš pakaitinį modelį ir šių manipuliuojamų vaizdų naudojimą juodosios dėžės vandens ženklų detektoriui apgauti. Kreditas: arXiv (2023). DOI: 10.48550/arxiv.2310.00076 Ko gero, labiausiai atšalus AI aspektas yra jo gebėjimas generuoti netikrus vaizdus.
Žinoma, kai kurie juokiasi. Arnoldo Schwarzeneggerio veidas atsidūrė ant Clinto Eastwoodo „Purvinojo Hario“, nukreipiančio ginklą į bėgantį įtariamąjį. Mike’as Tysonas virto Oprah. Donaldas Trumpas persikėlė į Bobą Odenkirką iš „Geriau skambink Sauliui“. Nicholasas Cage’as kaip Lois Lane filme „Supermenas“.
Tačiau naujausi įvykiai rodo nerimą keliančią tendenciją, nes skaitmeninis padirbinėjimas tampa kenkėjiškas.
Dar praėjusią savaitę aktorius Tomas Hanksas socialinėje žiniasklaidoje pasmerkė reklamą, naudojančią jo dirbtinio intelekto sukurtą panašumą, kad reklamuotų dantų sveikatos planą. Populiarus „YouTuber“ ponas Beastas, kuris nuo 2012 m. gali pasigirti daugiau nei 50 milijardų savo vaizdo įrašų peržiūrų, buvo klaidingai parodytas siūlantis „iPhone 15 Pros“ už 2 USD.
Taikosi ir paprasti piliečiai. Žmonių veidai rodomi nuotraukose socialiniuose tinkluose be jų sutikimo. Labiausiai nerimą kelia tai, kad daugėja „keršto pornografijos“, kai įsimylėję įsimylėjėliai skelbia išgalvotus savo buvusių draugų kompromituojančiose ar nepadoriose padėtyse vaizdus.
Politiškai susiskaldžiusioms Jungtinėms Valstijoms atsargiai artėjant labai ginčytinai kovai dėl prezidento posto 2024 m., suklastotų vaizdų ir vaizdo įrašų tikimybė žada precedento neturintį bjaurumą.
Be to, suklastotų vaizdų plitimas šaltakraujina mums žinomą teisinę sistemą. Kaip neseniai pranešė nacionalinė ne pelno siekianti žiniasklaidos priemonė NPR, teisininkai naudojasi nelaiminga publika, kartais susimąsčiusi dėl to, kas tiesa ar melas, ir vis labiau ginčija teisme pateiktus įrodymus.
Hany Faridas, kuris specializuojasi skaitmeninių vaizdų analizėje Kalifornijos universitete Berklyje, sakė: „Būtent dėl to mes nerimavome, kad kai įžengėme į šį gilių padirbinėjimo amžių, bet kas gali paneigti tikrovę“.
„Tai yra klasikinio melagio dividendas“, – sakė jis, turėdamas omenyje terminą, pirmą kartą pavartotą 2018 m. pranešime apie galimą „deepfake“ užpuolimą privatumui ir demokratijai.
Didžiosios skaitmeninės žiniasklaidos įmonės – OpenAI, Alphabet, Amazon, DeepMind – pažadėjo sukurti kovos su dezinformacija priemones. Vienas iš pagrindinių būdų yra vandens ženklų naudojimas dirbtinio intelekto sukurtame turinyje.
Tačiau popierius, paskelbtas rugsėjo 29 d. išankstinio spausdinimo serveryje arXiv kelia nerimą keliančius naujienas apie galimybę pažaboti tokį skaitmeninį piktnaudžiavimą.
Merilendo universiteto profesoriai atliko testus, įrodančius, kad apsauginiai vandens ženklai lengvai apvažiuojami.
„Šiuo metu neturime jokio patikimo vandens ženklo“, – sakė vienas iš ataskaitos „Ai-Image Detectors: Fundamental Limits and Practical Attacks“ autorių Soheil Feizi.
Feizi sakė, kad jo komanda „sulaužė juos visus“.
„Netinkamas AI taikymas kelia galimą pavojų, susijusį su dezinformacija, sukčiavimu ir netgi nacionalinio saugumo problemomis, tokiomis kaip manipuliavimas rinkimais“, – perspėjo Feizi. „Didžios klastotės gali sukelti asmeninę žalą – nuo veikėjų šmeižto iki emocinio sukrėtimo, paveikti tiek asmenis, tiek platesnę visuomenę. Todėl dirbtinio intelekto sukurto turinio identifikavimas… iškyla kaip esminis iššūkis, kurį reikia spręsti.
Komanda naudojo procesą, vadinamą difuziniu gryninimu, kuris pritaiko Gauso triukšmą vandens ženklui ir tada jį pašalina. Tai palieka iškraipytą vandens ženklą, kuris gali apeiti aptikimo algoritmus. Likusi vaizdo dalis pakeista tik minimaliai.
Jie taip pat sėkmingai įrodė, kad blogi veikėjai, turintys prieigą prie juodosios dėžės vandenženklio algoritmų, gali suklaidinti netikras nuotraukas su ženklais, kurie apgaudinėja detektorius, kad jie patikėtų, kad jos yra teisėtos.
Geresni algoritmai tikrai atsiras. Kaip ir virusinių atakų atveju, blogiukai visada stengsis sulaužyti bet kokias jų sugalvotas gynybas, o katės ir pelės žaidimas tęsis.
Tačiau Feizi išreiškė tam tikrą optimizmą.
„Remiantis mūsų rezultatais, tvirto vandens ženklo sukūrimas yra sudėtinga, bet nebūtinai neįmanoma užduotis“, – sakė jis.
Kol kas žmonės turi atlikti reikiamą patikrinimą peržiūrėdami vaizdus, kuriuose yra jiems galinčio būti svarbaus turinio. Būtinas budrumas, šaltinių patikrinimas ir nemaža dozė sveiko proto.
Daugiau informacijos: Mehrdad Saberi ir kt., AI vaizdo detektorių tvirtumas: pagrindinės ribos ir praktiniai išpuoliai, arXiv (2023). DOI: 10.48550/arxiv.2310.00076
Žurnalo informacija: arXiv
© „Science X Network“, 2023 m
Citata: Tyrimas: Skaitmeninių vandens ženklų apsaugą galima lengvai apeiti (2023 m. spalio 8 d.), gauta 2023 m. spalio 9 d. iš https://techxplore.com/news/2023-10-digital-watermark-easily-bypassed.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.