Kreditas: Pixabay / CC0 viešasis domenas Teksaso A&M universiteto visuomenės sveikatos mokyklos mokslininkai kuria naują valdymo modelį, skirtą etinėms gairėms ir vykdymui sparčiai besivystančioje dirbtinio intelekto (AI) srityje. Žinomas kaip „Copyleft AI with Trusted Enforcement“ arba CAITE, mokslininkai mano, kad šis modelis apsaugos nuo galimos AI žalos netrukdydamas technologinei pažangai.
Cason Schmit, JD, Visuomenės sveikatos mokyklos docentas ir Sveikatos teisės ir politikos programos direktorius, Megan Doerr iš Sage Bionetworks ir Jennifer Wager, JD iš Penn State, aptaria savo naują modelį neseniai paskelbtame žurnale. Mokslas.
Dirbtinis intelektas (AI) žada pakeisti beveik kiekvieną mūsų kasdienio gyvenimo aspektą. Tačiau netinkamas dirbtinio intelekto įrankių naudojimas gali pakenkti, ypač bendruomenėms, kurios jau susiduria su nelygybe ir diskriminacija. Dėl šios galimos žalos reikia etinių gairių taikant reguliavimą ir politiką. Tačiau dėl sparčios AI pažangos ir dažnai nelanksčios vyriausybės reguliavimo pobūdžio tokių etinių gairių kūrimas tapo sudėtingas.
Schmit, Doerr ir Wager sukūrė CAITE modelį, kad susidorotų su šiais iššūkiais. CAITE sujungia copyleft licencijavimo aspektus ir patentų trolių modelį – du intelektinės nuosavybės teisių valdymo būdus, kurie gali būti laikomi prieštaraujančiais vienas kitam.
Copyleft licencija leidžia dalytis intelektine nuosavybe tokiomis sąlygomis kaip pirminio kūrėjo priskyrimas arba nekomercinis naudojimas, o išvestiniams darbams turi būti taikomos tos pačios licencijos sąlygos kaip ir originalui. „Creative Commons“ licencijos yra „copyleft“ licencijavimo rūšis. Tačiau „copyleft“ licencijavimo schemos paprastai turi mažai vykdymo galių.
Kita CAITE modelio pusė naudoja patentų trolių metodą, kuris naudoja vykdymo teises, kad užtikrintų atitiktį. Patentų trolis yra organizacija, kuriai priklauso intelektinės nuosavybės teisės ir kuri teisia kitus teisme, siekdama gauti pajamų, o ne kurti ar licencijuoti technologijas.
CAITE modelis sukurtas remiantis etiško naudojimo licencija. Ši licencija apribotų tam tikrus neetiškus AI naudojimą ir reikalautų, kad vartotojai laikytųsi elgesio kodekso. Svarbu tai, kad būtų naudojamas copyleft metodas, siekiant užtikrinti, kad kūrėjai, kuriantys išvestinius modelius ir duomenis, taip pat turėtų naudoti tas pačias licencijos sąlygas kaip ir pirminiai darbai. Licencija perleistų licencijos vykdymo teises nurodytai trečiajai šaliai, žinomai kaip CAITE priegloba. Tokiu būdu visų šių etiško naudojimo licencijų vykdymo teisės būtų sujungtos į vieną organizaciją, suteikiant CAITE prieglobai galias tapti beveik vyriausybine AI reguliavimo institucija.
„Šis metodas sujungia geriausius iš dviejų pasaulių: modelį, kuris yra toks pat greitas ir lankstus kaip pramonė, tačiau turi tradicinės vyriausybės reguliuotojo galią ir galią“, – sakė Schmitas.
Autoriai pažymi, kad naudojant nevyriausybinę partiją, kurią paskyrė AI kūrėjų bendruomenė, būtų galima užtikrinti didesnį vykdymo lankstumą ir pasitikėjimą priežiūra. CAITE šeimininkai gali nustatyti pasekmes už neetiškus veiksmus, pvz., finansines baudas arba pranešimus apie vartotojų apsaugos įstatymų pažeidimus.
Tuo pačiu metu CAITE metodas leidžia taikyti atleidimo nuo baudų politiką, kuri gali skatinti savarankiškų pranešimų teikimą ir suteikia lankstumo, kurio dažnai trūksta tipinėms vyriausybės vykdymo sistemoms. Pavyzdžiui, paskatos AI naudotojams pranešti apie paklaidas, kurias jie aptinka savo AI modeliuose, galėtų padėti CAITE prieglobai įspėti kitus DI vartotojus, kurie pasikliauja tais potencialiai pavojingais AI modeliais.
Schmit ir kolegos pabrėžia, kad CAITE metodas, nors ir lankstus, pareikalaus didelės AI bendruomenės dalies. Be to, bandomajam etikos politikos, sukurtos taikant CAITE metodą, įgyvendinimui reikės tolesnių tyrimų ir finansavimo. Diegiant šį modelį taip pat bus remiamasi AI bendruomenės nariais iš daugybės skirtingų disciplinų, kad sukurtų jo funkcijas ir įveiktų kylančius iššūkius.
Nors tam reikės didelių bendruomenės įpirkų ir galbūt vyriausybės paskatų, Schmit ir jo kolegos teigia, kad pramonė greičiausiai rinksis lankstesnę CAITE sistemą, o ne griežtas ir lėtai prisitaikančias taisykles, kurias galiausiai galėtų įvesti vyriausybės.
„Pastangos skatinti etišką ir patikimą dirbtinį intelektą turi viršyti tai, kas yra teisiškai įpareigota kaip priimtino elgesio pagrindas“, – sakė Wagneris. „Galime ir turime stengtis padaryti geriau, nei yra minimaliai priimtina.
Įdiegta CAITE apsaugos nuo galimos AI žalos, netrukdydama technologinei pažangai. Tyrėjai teigia, kad AI ir toliau plečiasi į mūsų kasdienį gyvenimą, atsakingos etinės sistemos vertė taps itin svarbi.
Daugiau informacijos: CD Schmit ir kt., „IP panaudojimas dirbtinio intelekto valdymui“, Mokslas (2023). DOI: 10.1126/science.add2202
Citata: būdas valdyti etišką dirbtinio intelekto naudojimą netrukdant tobulėti (2023 m. vasario 17 d.), gautas 2023 m. vasario 19 d. iš https://techxplore.com/news/2023-02-ethical-artificial-intelligence-hindering-advancement.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.