Menininkai, tokie kaip Karla Ortiz San Franciske, Kalifornijoje, ieško techninių ir teisinių būdų apsaugoti savo stilių, nes dirbtinis intelektas „mokosi“ kopijuoti internete rastus kūrinius. Menininkai, apgulti dirbtinio intelekto (DI), kuris tiria jų darbus ir atkartoja jų stilius, susivienijo su universiteto mokslininkais, kad sustabdytų tokią kopijavimo veiklą.
JAV iliustratorė Paloma McClain pradėjo gynybos režimą, kai sužinojo, kad keli dirbtinio intelekto modeliai buvo „apmokyti“ naudojant jos meną, be jokio kredito ar kompensacijos.
„Tai mane trikdė“, – AFP sakė McClainas.
„Manau, kad tikrai prasminga technologinė pažanga daroma etiškai ir pakelia visus žmones, o ne funkcionuoja kitų sąskaita“.
Menininkas kreipėsi į nemokamą programinę įrangą, pavadintą „Glaze“, kurią sukūrė Čikagos universiteto mokslininkai.
Glaze’as iš esmės pralenkia dirbtinio intelekto modelius, kai kalbama apie tai, kaip jie treniruojasi, koreguoja pikselius tokiais būdais, kurių žmonės nepastebėtų, tačiau dėl to suskaitmenintas meno kūrinys labai skiriasi nuo AI.
„Iš esmės teikiame technines priemones, padedančias apsaugoti žmonių kūrėjus nuo invazinių ir piktnaudžiavimo dirbtinio intelekto modelių“, – sakė kompiuterių mokslų profesorius Benas Zhao iš Glaze komandos.
Vos per keturis mėnesius sukurta „Glaze“ sukūrė technologiją, naudojamą veido atpažinimo sistemoms sutrikdyti.
„Dirbome itin dideliu greičiu, nes žinojome, kad problema rimta“, – sakė Zhao apie skubėjimą ginti menininkus nuo programinės įrangos imitatorių.
„Daugelis žmonių kentė skausmą“.
Generatyvūs dirbtinio intelekto milžinai sudarė susitarimus kai kuriais atvejais naudoti duomenis treniruotėms, tačiau didžioji dalis skaitmeninių vaizdų, garso ir teksto, naudojamo formuojant supermaniosios programinės įrangos nuomonę, buvo pašalinta iš interneto be aiškaus sutikimo.
Pasak Zhao, nuo jo išleidimo 2023 m. kovo mėn., „Glaze“ buvo atsisiųsta daugiau nei 1,6 milijono kartų.
Zhao komanda kuria „Glaze“ patobulinimą, pavadintą „Nightshade“, kuris sustiprina apsaugą, supainiodamas dirbtinį intelektą, tarkime, priversti jį interpretuoti šunį kaip katę.
„Manau, kad „Nightshade“ turės pastebimą poveikį, jei jį naudos pakankamai menininkų ir išleis pakankamai užnuodytų vaizdų į gamtą“, – sakė McClainas, turėdamas omenyje lengvai pasiekiamus internete.
„Remiantis „Nightshade“ tyrimais, nereikėtų tiek daug užnuodytų vaizdų, kaip būtų galima pagalvoti.
Pasak Čikagos akademiko, Zhao komanda kreipėsi į keletą įmonių, norinčių naudoti „Nightshade“.
„Tikslas yra, kad žmonės galėtų apsaugoti savo turinį, nesvarbu, ar tai pavieniai menininkai, ar įmonės, turinčios daug intelektinės nuosavybės“, – sakė Zhao.
Tegyvuoja tu
Startup Spawning sukūrė Kudurru programinę įrangą, kuri aptinka bandymus surinkti daug vaizdų iš internetinės vietos.
Pasak Spawning įkūrėjo Jordano Meyer, menininkas gali užblokuoti prieigą arba siųsti vaizdus, neatitinkančius to, ko prašoma, taip suteršdamas duomenų, naudojamų AI mokyti, kas yra kas, telkinį.
Į Kudurru tinklą jau integruota daugiau nei tūkstantis svetainių.
Spawning taip pat atidarė haveibeentrained.com – svetainę, kurioje yra internetinis įrankis, leidžiantis sužinoti, ar suskaitmeninti kūriniai buvo įtraukti į AI modelį, ir leidžia menininkams ateityje atsisakyti tokio naudojimo.
Didėjant vaizdų apsaugai, Vašingtono universiteto (Misūrio valstijoje) mokslininkai sukūrė „AntiFake“ programinę įrangą, kad sutrukdytų dirbtinio intelekto balsų kopijavimui.
„AntiFake“ praturtina skaitmeninius kalbančių žmonių įrašus, pridedant triukšmo, kurio žmonės negirdi, tačiau dėl kurių „neįmanoma susintetinti žmogaus balso“, sakė mokslų daktaras Zhiyuanas Yu. studentas už projektą.
Programa siekia ne tik sustabdyti neteisėtą dirbtinio intelekto mokymą, bet ir užkirsti kelią „giliųjų klastotėms“ – fiktyviems garsenybių, politikų, giminaičių ar kitų asmenų garso takelių ar vaizdo įrašų, kuriuose jie rodo, kaip jie daro ar sako tai, ko jie nedarė, kūrimo.
Pasak Zhiyuan Yu, populiarus tinklalaidis neseniai kreipėsi į „AntiFake“ komandą, prašydamas padėti sustabdyti jos kūrinių užgrobimą.
Laisvai prieinama programinė įranga iki šiol buvo naudojama kalbančių žmonių įrašams, tačiau gali būti pritaikyta ir dainoms, sakė mokslininkas.
„Geriausias sprendimas būtų pasaulis, kuriame visi AI naudojami duomenys būtų sutikti ir apmokėti“, – tvirtino Meyer.
„Tikimės pastūmėti kūrėjus šia kryptimi.
© 2023 AFP
Citata: Menininkai naudoja techninius ginklus prieš AI kopijavimus (2023 m. gruodžio 24 d.), gauta 2023 m. gruodžio 26 d. iš https://techxplore.com/news/2023-12-artists-tech-weapons-ai-copycats.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.