Australijos federalinė policija teigė, kad naudoja dirbtinį intelektą duomenims, gautiems pagal telekomunikacijų ir stebėjimo orderius, analizuoti, nes agentūra žada visišką šios technologijos naudojimo skaidrumą.
Pateikdama federalinės vyriausybės diskusijų dokumentą dėl atsakingo dirbtinio intelekto naudojimo, AFP teigė, kad iki šiol šios technologijos naudojimas buvo ribotas, įskaitant dirbtinį intelektą verčiant užsienio medžiagas į anglų kalbą.
Tačiau ji pažymėjo, kad dirbtinio intelekto įrankiai, įskaitant didelių kalbų modelius (LLM), suteikė AFP galimybę rasti naudingos informacijos dideliuose teisėtai surinktuose duomenų rinkiniuose.
„Pagreitinę atradimo užduotį, nariai gali anksčiau priimti sprendimus ir atitinkamai atlikti reikiamus veiksmus“, – sakė AFP.
- Prisiregistruokite gauti nemokamus „Guardian Australia“ rytinius ir popietinius naujienlaiškius el. paštu, kad gautumėte kasdienių naujienų santrauką
AFP nurodė, kad tai taip pat galėtų padėti analizuoti sandorių duomenis, siekiant nustatyti neteisėtus modelius, pvz., pinigų plovimą ir galimą sukčiavimą.
2021 m. AFP sulaukė privatumo komisaro kritikos dėl darbuotojų, naudojančių prieštaringai vertinamą „Clearview AI“ veido atpažinimo technologiją, kuri savo duomenų rinkinį sukūrė iš žmonių nuotraukų, darytų iš socialinės žiniasklaidos be jų leidimo. AFP nustojo naudoti technologiją, bet slapta susitiko su Clearview AI, kai pareiškė, kad nustojo naudoti technologiją.
AFP savo pareiškime teigė, kad ji bus skaidri ir „prieš įdiegiant technologijas aktyviai išnagrinės technologijas“, atsižvelgdama į etinius sumetimus ir tvirtą valdymą bei priežiūrą.
„Policijos darbas yra glaudžiai susijęs su visuomene ir turi atspindėti bendruomenės, kuriai ji tarnauja, vertybes, normas ir lūkesčius, todėl būtina žmogaus priežiūra ir atskaitomybė.
AFP atstovas patvirtino, kad slapta informacija, gauta iš orderių, bus perduota į LLM arba neuroninius tinklus. Tačiau agentūra teigė, kad užtikrina duomenų apsaugą, nesvarbu, ar tai yra vidinis įrankis, ar kai naudojamas komercinis produktas, todėl jie nebūtų įtraukiami į viešuosius duomenų rinkinius.
Naudojami teisėtai surinkti duomenys gali apimti duomenis, surinktus pagal orderį, įskaitant telekomunikacijų perėmimo duomenis ir stebėjimo duomenis.
Atstovas taip pat sakė, kad visų kalbų vertimus tikrina žmogus.
Šių metų pradžioje Albanijos vyriausybės atliktas tyrimas sulaukė 510 pranešimų iš įvairių žmonių ir organizacijų. Pateikimus pateikė grupės, kurios yra technologijų priešakyje, įskaitant „Meta“, „Google“, „Amazon Web Services“, „Open AI“ ir „Microsoft“, ir pramonės šakos, kurios gali būti paveiktos, įskaitant teisines įmones, sveikatos priežiūros organizacijas, verslo grupes, bankus, prekybos centrus ir kino teatrus. muzikos ir televizijos kompanijos.
Daugelis pranešimų kėlė susirūpinimą dėl dirbtinio intelekto, ypač didelių kalbų modelių, mokymo apie jų turinį be leidimo ar nemokėjimo.
Australijos įrašų pramonės asociacija (ARIA) teigė, kad dirbtinis intelektas, kuris be leidimo kuria gilias klastotes arba balso klonus, turėtų būti griežtai apribotas.
„Toks AI technologijos naudojimas atima iš atlikėjų balso ir įvaizdžio kontrolę ir gali suklaidinti bei suklaidinti gerbėjus, kurie gali nežinoti, kad klauso ne tikros muzikos, sukurtos jų mėgstamo atlikėjo. Tai gali turėti neigiamos įtakos menininko karjerai.
„Getty Images“ teigė, kad dirbtinio intelekto kūrėjai turi būti skaidrūs apie duomenų rinkinius, kurių pagrindu sukurta jų technologija, kad būtų užtikrinta, jog nebūtų pažeidžiamos intelektinės nuosavybės ir privatumo teisės.
praleisti ankstesnę naujienlaiškio reklamąpo naujienlaiškio reklamavimo
„Vienas iš būdų nustatyti skaidrumo reikalavimus yra reikalauti, kad tiek privataus, tiek viešojo sektoriaus organizacijos saugotų visų naudojamų mokymo duomenų rinkinių, įskaitant duomenų šaltinius, audituojamus įrašus“, – teigiama „Getty Images“ pranešime.
„Free TV Australia“ teigė, kad turinio savininkams turėtų būti mokama už naudojimąsi jų turiniu, taip pat turėtų būti suteikta galimybė neleisti dirbtinio intelekto įrankiams prieigos prie jų turinio.
„Guardian Australia“ anksčiau pranešė, kad „Google“ pateikė prašymą priimti lanksčius autorių teisių įstatymus, kad dirbtinis intelektas galėtų išgauti turinį iš svetainių, nebent tos svetainės atsisako.
Nuo tada daugelis naujienų leidinių, įskaitant „Guardian“, neleido „ChatGPT“ savininkui „OpenAI“ kasti savo svetaines.
Ketvirtadienį kalboje pramonės ministras Edas Husicas teigė, kad daugumoje technologijų pramonės pranešimų raginama naudoti galiojančius įstatymus, o kiti atkreipė dėmesį į teisės aktų spragas. Jis sakė, kad vyriausybė nori tai padaryti teisingai ir apsvarstys atsakymus per ateinančius kelis mėnesius.
„Taip pat žinau, kad galime sukurti reglamentą, sudarantį platformą naujovėms, kartu saugodami australus – mūsų bendruomenes ir mūsų nacionalinę gerovę“, – sakė jis.
„Šios diskusijos esmė ne ta, ar turėtume reguliuoti AI? Kokiomis aplinkybėmis turėtume tikėtis, kad dirbtinį intelektą kuriantys ir naudojantys žmonės ir organizacijos turės tinkamas apsaugos priemones?
Australijos teisės taryba teigė, kad federalinė vyriausybė trumpuoju laikotarpiu turėtų apsvarstyti didelės rizikos dirbtinio intelekto technologijų, įskaitant biometrines technologijas, tokias kaip veido atpažinimas ir socialinis įvertinimas, reguliavimą, taip pat apsaugą nuo dirbtinio intelekto sukurtų padirbinių ir sukčių.
Australijos prekybos centrų taryba išreiškė susirūpinimą, kad jos turimos technologijos, pvz., CCTV ir „veido aptikimo“ ekranai, gali patekti į bet kokį AI reglamentą, o bankai ir finansų institucijos, tokios kaip „Visa“, CBA ir NAB, teigė jau seniai taikę AI aptikti galimą sukčiavimą ir teigė, kad daugumai jų daromų veiksmų jau taikomi galiojantys įstatymai.
Australijos verslo taryba teigė, kad problema buvo ne ta, kad nėra įstatymų, reglamentuojančių dirbtinį intelektą, o tik tai, kad prieš priimant naujus įstatymus reikia geriau suprasti, kaip taikomi esami įstatymai.