Australė Noelle Martin pozuoja nuotraukai 2023 m. kovo 9 d., ketvirtadienį, Niujorke. 28 metų mergina prieš 10 metų rado netikrą pornografiją apie save, kai vieną dieną iš smalsumo ji naudojo „Google“ ieškodama savo atvaizdo. Kreditas: AP nuotrauka / Andresas Kudackis Dirbtinio intelekto vaizdavimas gali būti naudojamas kuriant meną, pasimatuojant drabužius virtualiose kabinose ar padedant kurti reklamines kampanijas.
Tačiau ekspertai baiminasi, kad tamsesnė lengvai prieinamų įrankių pusė gali pabloginti tai, kas pirmiausia kenkia moterims: nesąmoninga giliai suklastota pornografija.
Deepfake yra vaizdo įrašai ir vaizdai, sukurti skaitmeniniu būdu arba pakeisti naudojant dirbtinį intelektą arba mašininį mokymąsi. Pornografija, sukurta naudojant šią technologiją, pirmą kartą internete pradėjo plisti prieš keletą metų, kai „Reddit“ vartotojas pasidalino klipais, kuriuose moterų įžymybių veidai uždedami ant pornografijos aktorių pečių.
Nuo tada „deepfake“ kūrėjai platino panašius vaizdo įrašus ir vaizdus, skirtus internetiniams influenceriams, žurnalistams ir kitiems, turintiems viešą profilį. Tūkstančiai vaizdo įrašų yra daugybėje svetainių. O kai kurie naudotojams siūlo galimybę kurti savo atvaizdus – iš esmės leidžiant bet kam, ką nori, paversti seksualinėmis fantazijomis be jų sutikimo arba panaudoti technologiją pakenkti buvusiems partneriams.
Pasak ekspertų, problema išaugo, nes tapo lengviau kurti sudėtingus ir vizualiai patrauklius gilius klastotes. Ir jie sako, kad tai gali pablogėti, kai bus kuriami generatyvūs AI įrankiai, kurie yra apmokyti naudojant milijardus vaizdų iš interneto ir išskleidžiant naują turinį naudojant esamus duomenis.
„Realybė tokia, kad technologija ir toliau plėsis, toliau vystysis ir bus taip paprasta, kaip paspausti mygtuką“, – sakė Adamas Dodge’as, EndTAB grupės, teikiančios mokymus apie piktnaudžiavimą technologijomis, įkūrėjas. . „Ir tol, kol tai įvyks, žmonės neabejotinai… ir toliau piktnaudžiaus šia technologija, kad pakenktų kitiems, visų pirma per internetinį seksualinį smurtą, netikrą pornografiją ir netikrus nuogų vaizdus“.
Noelle Martin iš Perto (Australija) patyrė tą tikrovę. 28 metų mergina prieš 10 metų rado netikrą pornografiją apie save, kai vieną dieną iš smalsumo ji naudojo „Google“ ieškodama savo atvaizdo. Iki šiol Martin sako nežinanti, kas sukūrė netikrus vaizdus ar vaizdo įrašus, kuriuose ji užsiima lytiniais santykiais, kuriuos vėliau rastų. Ji įtaria, kad kažkas greičiausiai padarė nuotrauką, paskelbtą jos socialiniame tinkle ar kitur, ir pavertė ją pornografine.
Išsigandęs Martinas kelerius metus susisiekė su skirtingomis svetainėmis, siekdamas, kad vaizdai būtų pašalinti. Kai kurie neatsakė. Kiti jį nuėmė, bet netrukus ji vėl rado.
„Jūs negalite laimėti“, – sakė Martinas. „Tai kažkas, kas visada bus ten. Tai tarsi amžinai jus sužlugdė.”
Pasak jos, kuo daugiau ji kalbėjo, tuo labiau problema paaštrėjo. Kai kurie žmonės jai netgi pasakojo, kaip ji rengiasi ir paskelbė nuotraukas socialinėje žiniasklaidoje, prisidėjo prie priekabiavimo – iš esmės kaltino ją dėl vaizdų, o ne kūrėjus.
Galiausiai Martin atkreipė dėmesį į teisės aktus, pasisakydama už nacionalinį Australijos įstatymą, pagal kurį įmonėms būtų skirta 555 000 Australijos dolerių (370 706 USD) bauda, jei jos nesilaikys įspėjimų dėl tokio turinio pašalinimo iš interneto saugos reguliavimo institucijų.
Tačiau valdyti internetą beveik neįmanoma, kai šalys turi savo įstatymus, reglamentuojančius turinį, kuris kartais pateikiamas visame pasaulyje. Martin, šiuo metu Vakarų Australijos universiteto advokatė ir teisės tyrėja, sako, kad ji mano, kad problemą reikia suvaldyti pasitelkiant tam tikrą visuotinį sprendimą.
Tuo tarpu kai kurie dirbtinio intelekto modeliai teigia, kad jie jau riboja prieigą prie atvirų vaizdų.
OpenAI teigia, kad pašalino aiškų turinį iš duomenų, naudojamų vaizdų generavimo įrankiui DALL-E mokyti, o tai riboja vartotojų galimybes kurti tokio tipo vaizdus. Bendrovė taip pat filtruoja užklausas ir teigia, kad neleidžia vartotojams kurti įžymybių ir žinomų politikų AI vaizdų. Kitas modelis „Midjourney“ blokuoja tam tikrų raktinių žodžių naudojimą ir skatina vartotojus moderatoriams pažymėti probleminius vaizdus.
Tuo tarpu startuolis „Stability AI“ lapkritį išleido atnaujinimą, kuris pašalina galimybę kurti aiškius vaizdus naudojant vaizdų generatorių „Stable Diffusion“. Šie pakeitimai buvo padaryti po pranešimų, kad kai kurie vartotojai, naudodami šią technologiją, kūrė įžymybių įkvėptas nuogas nuotraukas.
Stabilumo dirbtinio intelekto atstovas Motezas Bishara teigė, kad filtras naudoja raktinių žodžių ir kitų metodų, pvz., vaizdo atpažinimo, derinį, kad aptiktų nuogumą ir grąžintų neryškų vaizdą. Tačiau vartotojai gali manipuliuoti programine įranga ir generuoti tai, ko nori, nes įmonė išleidžia savo kodą visuomenei. Bishara teigė, kad „Stability AI“ licencija „taikoma trečiųjų šalių programoms, sukurtoms stabilios difuzijos pagrindu“, ir griežtai draudžia „bet kokį piktnaudžiavimą neteisėtais ar amoraliais tikslais“.
Kai kurios socialinės žiniasklaidos įmonės taip pat sugriežtino savo taisykles, kad geriau apsaugotų savo platformas nuo kenksmingų medžiagų.
„TikTok“ praėjusį mėnesį teigė, kad visi padirbti arba manipuliuotas turinys, kuriame rodomos tikroviškos scenos, turi būti ženklinami, nurodant, kad jie yra netikri arba kaip nors pakeisti, ir kad privačių asmenų ir jaunų žmonių klastotės nebeleidžiamos. Anksčiau bendrovė buvo uždraudusi seksualinį turinį ir klastotes, kurios klaidina žiūrovus apie realaus pasaulio įvykius ir daro žalą.
Žaidimų platforma „Twitch“ taip pat neseniai atnaujino savo politiką, susijusią su atvirais padirbtais vaizdais, po to, kai sausio pabaigoje per tiesioginę transliaciją buvo aptiktas populiarus transliuotojas, vardu Atrioc, jo naršyklėje atidarytas padirbtos pornografijos svetainė. Svetainėje buvo pateikti netikri kitų „Twitch“ transliuotojų vaizdai.
„Twitch“ jau uždraudė atvirus gilius klastojimus, tačiau dabar tokio turinio žvilgsnis – net jei juo siekiama išreikšti pasipiktinimą – „bus pašalintas ir bus taikomas vykdymas“, – rašė bendrovė tinklaraščio įraše. O tyčinis medžiagos reklamavimas, kūrimas ar bendrinimas yra pagrindas nedelsiant uždrausti.
Kitos įmonės taip pat bandė uždrausti giliuosius klastotes savo platformose, tačiau norint juos išjungti, reikia kruopštumo.
„Apple“ ir „Google“ pranešė, kad neseniai iš savo programų parduotuvių pašalino programą, kurioje buvo rodomi seksualiai dviprasmiški aktorių vaizdo įrašai, kad parduotų produktą. Suklastotos pornografijos tyrimai nėra paplitę, tačiau vienoje 2019 m. AI įmonės DeepTrace Labs paskelbtoje ataskaitoje nustatyta, kad ji buvo beveik visiškai ginkluota prieš moteris, o labiausiai taikytos asmenys buvo Vakarų aktorės, o vėliau – Pietų Korėjos K-pop dainininkės.
Ta pati programa, kurią pašalino „Google“ ir „Apple“, rodė skelbimus „Meta“ platformoje, kurią sudaro „Facebook“, „Instagram“ ir „Messenger“. „Meta“ atstovas spaudai Dani Leveris teigė, kad bendrovės politika riboja AI sukurtą ir ne DI turinį suaugusiesiems ir apribojo programos puslapį reklamuoti savo platformose.
Vasario mėnesį „Meta“ ir suaugusiems skirtos svetainės, tokios kaip „OnlyFans“ ir „Pornhub“, pradėjo dalyvauti internetiniame įrankyje „Take It Down“, kuris leidžia paaugliams pranešti apie atvirus savo vaizdus ir vaizdo įrašus iš interneto. Ataskaitų teikimo svetainė skirta įprastiems vaizdams ir dirbtinio intelekto sukurtam turiniui – tai vis labiau rūpi vaikų saugos grupėms.
„Kai žmonės klausia mūsų vyresniosios vadovybės, kokie yra rieduliai, leidžiantys žemyn nuo kalno, dėl ko mes nerimaujame? Pirmasis yra šifravimas nuo galo iki galo ir ką tai reiškia vaikų apsaugai. Antra, dirbtinis intelektas ir ypač gilūs klastotės”, – sakė jis. Gavinas Portnoy, Nacionalinio dingusių ir išnaudojamų vaikų centro, kuris valdo įrankį Take It Down, atstovas.
„Mes… kol kas nesugebėjome suformuluoti tiesioginio atsakymo į tai“, – sakė Portnoy.
© 2023 The Associated Press. Visos teisės saugomos. Šios medžiagos negalima skelbti, transliuoti, perrašyti ar platinti be leidimo.
Citata: Deepfake pornografija gali tapti vis didesne problema vykstant AI lenktynėms (2023 m. balandžio 16 d.), gauta 2023 m. balandžio 17 d. iš https://techxplore.com/news/2023-04-deepfake-porn-problem-ai.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

