Sgalia. Katastrofiškas. Revoliucinis. Neatsakingas. Kuriantis efektyvumą. Pavojinga. Šie terminai buvo naudojami dirbtiniam intelektui apibūdinti pastaruosius kelis mėnesius. „ChatGPT“ išleidimas plačiajai visuomenei iškelia AI dėmesio centre, ir daugeliui kyla klausimas: kuo ji skiriasi nuo kitų technologijų ir kas nutiks, kai visiškai pasikeis mūsų verslo ir gyvenimo būdas?
Pirma, svarbu pripažinti, kad AI yra būtent tai: technologija. Kaip pažymime Amy Sample Ward ir aš savo knygoje „The Tech That Comes Next“, technologija yra žmonių sukurta priemonė, todėl jai taikomi žmonių įsitikinimai ir suvaržymai. DI dažnai buvo vaizduojama kaip visiškai savarankiška, savarankiško mokymosi technologija; tačiau iš tikrųjų jai taikomos taisyklės, įvestos į jo dizainą. Pavyzdžiui, kai aš paklausiu ChatGPT: „Kokioje šalyje yra geriausi jollof ryžiai?“, jis atsako: „Kaip AI kalbos modelis, aš neturiu asmeninės nuomonės, bet galiu suteikti informacijos. Galiausiai klausimas, kurioje šalyje yra geriausi jollof ryžiai, yra subjektyvus ir priklauso nuo asmeninių pageidavimų. Skirtingi žmonės gali turėti skirtingas nuomones dėl savo kultūrinės kilmės, skonio pasirinkimų ar patirties.
Tai atspindi aiškų AI programuotojų pasirinkimą, kad ši AI programa nepateiktų konkrečių atsakymų į kultūrinės nuomonės klausimus. „ChatGPT“ naudotojai modeliui gali užduoti klausimus apie nuomonę temomis, kurios yra prieštaringesnės nei ryžių patiekalas, tačiau dėl tokio dizaino pasirinkimo jie sulauks panašaus atsakymo. Pastaraisiais mėnesiais „ChatGPT“ pakeitė savo kodą, kad reaguotų į kaltinimus ir seksizmo bei rasizmo pavyzdžius produkto atsakymuose. Turėtume laikytis aukštų kūrėjų standartų ir tikėtis, kad dirbtinio intelekto įrankiai bus patikrinti ir balansuoti; taip pat turėtume reikalauti, kad šių ribų nustatymo procesas būtų įtraukus ir apimtų tam tikrą skaidrumą.
Nors dizaineriai turi daug galių nustatydami, kaip dirbtinio intelekto įrankiai veikia, pramonės lyderiai, vyriausybinės agentūros ir ne pelno organizacijos gali pasinaudoti savo galia pasirinkti, kada ir kaip taikyti AI sistemas. Generatyvusis AI gali mus sužavėti savo gebėjimu kurti nuotraukas, planuoti atostogų darbotvarkes, kurti darbo pristatymus ir net rašyti naują kodą, tačiau tai nereiškia, kad jis gali išspręsti visas problemas. Nepaisant technologinio triukšmo, tie, kurie sprendžia, kaip naudoti AI, pirmiausia turėtų paklausti paveiktų bendruomenės narių: „Kokie jūsų poreikiai? ir „Kokios tavo svajonės?”. Atsakymai į šiuos klausimus turėtų paskatinti kūrėjus įgyvendinti suvaržymus ir lemti sprendimą, ar naudoti dirbtinį intelektą ir kaip jį naudoti.
2023 m. pradžioje psichikos sveikatos programėlė Koko „išbandė GPT-3, kad konsultuotų 4 000 žmonių, tačiau testą išjungė, nes „jis atrodė kaip sterilus“. Greitai paaiškėjo, kad paveikta bendruomenė nenorėjo dirbtinio intelekto programos vietoj apmokyto žmogaus terapeuto. Nors pokalbis apie AI gali būti plačiai paplitęs, jo naudojimas nėra ir neturi būti. Pasekmės, kai skubama pasikliauti vien dirbtinio intelekto sistemomis, suteikiant prieigą prie medicinos paslaugų, teikiant pirmenybę būstui arba įdarbinant ir samdant priemones įmonėms, gali būti tragiškos; sistemos gali atmesti ir padaryti žalos dideliu mastu. Tie, kurie svarsto, kaip jį naudoti, turi pripažinti, kad nuspręs ne AI naudojimas yra toks pat galingas kaip sprendimas į naudoti AI.
Visos šios problemos yra esminiai klausimai dėl duomenų rinkinių, naudojančių dirbtinį intelektą, kokybės ir prieigos prie technologijos. Iš esmės AI veikia atlikdama matematines operacijas su esamais duomenimis, kad pateiktų prognozes arba generuotų naują turinį. Jei duomenys yra šališki, nereprezentatyvūs arba juose nėra konkrečių kalbų, pokalbių roboto atsakymuose, veiklos rekomendacijose ir vaizduose, sugeneruotuose iš mūsų raginimų, gali būti įterpti tie patys paklaidai.
Siekiant to išvengti, tyrėjų ir advokatų darbas technologijų, visuomenės, rasės ir lyties klausimų sankirtoje turėtų būti mūsų požiūris į atsakingų technologijų priemonių kūrimą. Safiya Noble išnagrinėjo šališkus paieškos rezultatus, kurie pasirodė, kai „Google“ buvo ieškoma „profesionalios šukuosenos“ ir „neprofesionalios šukuosenos darbui“. Ankstesnis terminas davė baltų moterų atvaizdus; pastaroji paieška, juodaodžių moterų su natūraliomis šukuosenomis atvaizdai. Padidėjęs informuotumas ir propagavimas, pagrįstas tyrimais, galiausiai paskatino „Google“ atnaujinti savo sistemą.
Taip pat buvo stengiamasi paveikti dirbtinio intelekto sistemas, kol jos nėra laikomos užbaigtomis ir įdiegtos pasaulyje. Carnegie Mellon universiteto ir Pitsburgo universiteto mokslininkų komanda naudojo AI gyvavimo ciklo komiksų planavimą arba AI ataskaitas ir įrankius pavertė lengvai suprantamais aprašymais ir vaizdais, kad įtrauktų darbuotojus ir privačius asmenis į diskusijas apie DI pagrįstą sprendimų palaikymą. benamių paslaugų savo vietovėje sistemą. Jie sugebėjo suprasti, kaip veikia sistema, ir pateikti konkrečių atsiliepimų kūrėjams. Pamoka, kurią reikia išmokti, yra ta, kad dirbtinį intelektą naudoja žmonės, todėl norint ją formuoti reikia metodo, kuriame technologija derinama su visuomeniniu kontekstu.
Kur mes, kaip visuomenė, einame iš čia? Kieno vaidmuo yra suderinti AI įrankių dizainą su sprendimu, kada naudoti AI sistemas, ir būtinybe sumažinti AI galimą žalą? Kiekvienas turi atlikti savo vaidmenį. Kaip aptarta anksčiau, technologai ir organizacijų vadovai turi aiškią atsakomybę kuriant ir diegiant AI sistemas. Politikos formuotojai turi galimybę nustatyti dirbtinio intelekto kūrimo ir naudojimo gaires – ne apriboti inovacijas, o nukreipti jas taip, kad būtų kuo mažesnė žala asmenims. Finansuotojai ir investuotojai gali palaikyti dirbtinio intelekto sistemas, kurios sutelkia žmones ir skatina laiko juostas, leidžiančias bendruomenės indėliui ir bendruomenės analizei. Visi šie vaidmenys turi veikti kartu, kad būtų sukurtos teisingesnės AI sistemos.
Tarpsektorinis, tarpdisciplininis požiūris gali duoti geresnių rezultatų, ir šiandien yra daug daug žadančių pavyzdžių. Farmer.chat naudoja Gooey.AI, kad Indijos, Etiopijos ir Kenijos ūkininkai galėtų prieiti prie žemės ūkio žinių vietinėmis kalbomis per WhatsApp. Afrikos ekonomikos transformacijos centras šiuo metu rengia daugiašalę daugiametę programą, skirtą reguliavimo smėlio dėžei įgyvendinti., arba bandymas, pratimai apie dirbtinį intelektą formuojant ekonominę politiką. Tyrėjai tiria, kaip panaudoti dirbtinį intelektą vietinėms kalboms atgaivinti. Vienas iš tokių projektų yra darbas su Cheyenne kalba vakarinėje JAV dalyje.
Šie pavyzdžiai parodo, kaip dirbtinis intelektas gali būti panaudotas visuomenei teisingu būdu. Istorija įrodė, kad nevienodas technologijos poveikis ilgainiui susijungia; šių skirtingų efektų „technikos vaikinai“ negali ištaisyti patys. Vietoj to galime kartu pagerinti AI sistemų, sukurtų ir naudojamų mūsų gyvenime, kokybę.
- Afua Bruce’as kartu su Amy Sample Ward yra knygos „The Tech That Comes Next“ autorius