Dirbtinio intelekto įrankiai gali būti naudojami kuriant vaikų išnaudojimo vaizdus ir teroristinę propagandą, perspėjo Australijos e-saugos komisaras, paskelbdamas apie pasaulyje pirmaujantį pramonės standartą, pagal kurį technologijų gigantai privalo panaikinti tokią medžiagą AI valdomose paieškos sistemose.
Naujasis pramonės kodeksas, apimantis paieškos variklius, kuris bus detalizuotas penktadienį, reikalauja, kad didelės technologijų įmonės, tokios kaip „Google“, „Microsoft Bing“ ir „DuckDuckGo“, iš savo paieškos rezultatų pašalintų vaikų išnaudojimo medžiagą ir imtųsi priemonių užtikrinti, kad generatyvūs AI produktai nebūtų naudojami sukurti gilias tos medžiagos versijas.
- Prisiregistruokite gauti nemokamus „Guardian Australia“ rytinius ir popietinius naujienlaiškius el. paštu, kad gautumėte kasdienių naujienų santrauką
E. saugos komisarė Julie Inman Grant teigė, kad pačios įmonės turi būti priešakyje mažinant žalą, kurią gali sukelti jų produktai. „Matome, kad atsiranda „sintetinė“ medžiaga, išnaudojanti vaikus“, – sakė ji. „Teroro organizacijos naudoja generatyvųjį AI, kad sukurtų propagandą. Tai jau vyksta. Tai nėra išgalvotas dalykas. Jautėme, kad tai turi būti padengta.
„Microsoft“ ir „Google“ neseniai paskelbė apie planus integruoti savo AI įrankius „ChatGPT“ ir „Bard“ atitinkamai su populiariais vartotojų paieškos varikliais. Inmanas Grantas teigė, kad dirbtinio intelekto technologijos pažanga reikalauja persvarstyti „paieškos kodą“, apimantį šias platformas.
E. saugos komisaras teigė, kad ankstesnė kodo versija apėmė tik internetinę medžiagą, kurią paieškos sistemos grąžino po užklausų, o ne medžiagą, kurią šios paslaugos galėjo sukurti. Pagal naują kodą paieškos sistemos turės reguliariai peržiūrėti ir tobulinti savo dirbtinio intelekto įrankius, kad užtikrintų, jog „1A klasės“ medžiaga, įskaitant vaikų seksualinį išnaudojimą, terorizmą ir ekstremalų smurtą, nebūtų grąžinama paieškos rezultatuose, įskaitant tokios paieškos pašalinimą ir blokavimą. rezultatus.
Nacionalinė e-saugos komisarė Julie Inman Grant sako, kad sparti technologijų raida „sustabdė daugumą politikos formuotojų, reguliavimo institucijų ir šalių“. Nuotrauka: Bianca de Marchi / AAPĮmonės taip pat turės ištirti technologijas, kurios padėtų vartotojams aptikti ir atpažinti netikrus vaizdus, pasiekiamus iš jų paslaugų. E. saugos komisija mano, kad tai viena iš pirmųjų tokio pobūdžio sistemų pasaulyje.
Inmanas Grantas greitą AI plėtrą apibūdino kaip „ginklavimosi varžybas“, sakydamas, kad technologijos raida „sustabdė daugumą politikos formuotojų, reguliavimo institucijų ir šalių“.
„Kaip reguliuotojas ir politikos įgyvendintojas, generatyvusis AI man rodo, kad turime kitaip galvoti apie tai, kaip naudojame reguliavimo priemones“, – sakė ji. „Manau, kad jei norime išspręsti šias problemas, reguliavimo patikrinimas turės būti vykdomas projektavimo ir diegimo etape.
Inmanas Grantas teigė, kad tolesnis šių įrankių reguliavimas turi būti imamasi nuo pat pradžių, o ne žaisti „wac-a-mole“, kai atsiranda problemų. Ji palygino kontekstą su tuo, kad automobilių gamintojai privalo įsisegti saugos diržus.
„Verslo prasminga tai daryti iš anksto, o ne žiūrėti, kas atsitiks su generuojamuoju AI“, – sakė Inmanas Grantas. „Technologijų pramonei dabar reikia saugos diržo momento.
praleisti ankstesnę naujienlaiškio reklamąpo naujienlaiškio reklamavimo
E. saugos komisaras teigė, kad reguliavimo institucijos žinojo apie blogus veikėjus, naudojančius naujus dirbtinio intelekto įrankius neteisėtoms priemonėms, įskaitant medžiagos apie vaikų išnaudojimą kūrimą. Inmanas Grantas teigė, kad naujosios taisyklės privers technologijų įmones ne tik sumažinti žalą savo platformoms, bet ir kurti įrankius, skatinančius didesnį saugumą, pavyzdžiui, aptikti gilius netikrus vaizdus.
„Kadangi šios priemonės tampa demokratiškesnės, plėšrūnai gali tai panaudoti kurdami sintetinę vaikų seksualinės prievartos medžiagą pagal savo polinkį arba naudoti anime – dangus yra riba. Turime žinoti, kad įmonės apie tai galvoja ir įrengia tinkamus apsauginius turėklus“, – sakė ji.
Generalinis prokuroras Markas Dreyfusas ketvirtadienį parlamentui sakė, kad Australijos federalinė policija atlieka atskirą darbą, naudodama dirbtinį intelektą, kad aptiktų vaikų išnaudojimo medžiagą, o ne dabartinį rankinį nuotraukų tikrinimą.
Naujas šios iniciatyvos įrankis ragina suaugusiuosius pateikti savo, kaip vaikų, atvaizdus, kad padėtų lavinti dirbtinio intelekto modelį. Dreyfusas sakė, kad programai pateiks savo nuotrauką.

