Kreditas: Pixabay / CC0 viešasis domenas Didėjant susidomėjimui generatyviojo dirbtinio intelekto (AI) sistemomis visame pasaulyje, Surėjaus universiteto mokslininkai sukūrė programinę įrangą, galinčią patikrinti, kiek informacijos AI duomenų sistema surinko iš organizacijos skaitmeninės duomenų bazės.
„Surrey“ tikrinimo programinė įranga gali būti naudojama kaip įmonės internetinio saugumo protokolo dalis, padedanti organizacijai suprasti, ar dirbtinis intelektas per daug sužinojo ar net nepasiekė slaptų duomenų.
Programinė įranga taip pat gali nustatyti, ar AI nustatė programinės įrangos kodo trūkumus ir gali jas išnaudoti. Pavyzdžiui, internetinių žaidimų kontekste jis galėtų nustatyti, ar AI išmoko visada laimėti internetiniame pokeryje, pasinaudodamas kodavimo klaida.
Dr. Fortunatas Rajona yra Surėjaus universiteto formalaus privatumo tikrinimo mokslinis bendradarbis ir pagrindinis šio straipsnio autorius. Jis sakė: „Daugelyje programų dirbtinio intelekto sistemos sąveikauja tarpusavyje arba su žmonėmis, pvz., savarankiškai važiuojantys automobiliai greitkelyje ar ligoninės robotai. Išsiaiškinti, ką išmanusi AI duomenų sistema žino, yra nuolatinė problema, kuriai prireikė metų. rasti veiksmingą sprendimą.
„Mūsų tikrinimo programinė įranga gali nustatyti, kiek dirbtinis intelektas gali pasimokyti iš jų sąveikos, ar jie turi pakankamai žinių, leidžiančių sėkmingai bendradarbiauti, ir ar jie turi per daug žinių, kurios pažeistų privatumą. Galime patikrinti, ką AI išmoko, organizacijoms pasitikėjimo, kad AI gali saugiai panaudoti saugias nuostatas.
Tyrimas apie Surrey programinę įrangą laimėjo geriausio popieriaus apdovanojimą 25-ajame tarptautiniame formalių metodų simpoziume.
Profesorius Adrianas Hiltonas, Surėjaus universiteto Į žmones orientuoto AI instituto direktorius, sakė: „Per pastaruosius kelis mėnesius labai išaugo visuomenės ir pramonės susidomėjimas generatyviniais AI modeliais, kuriuos paskatino didelių kalbų modelių, tokių kaip pažanga, pažanga. kaip „ChatGPT“. Įrankių, galinčių patikrinti generatyvaus dirbtinio intelekto veikimą, sukūrimas yra būtinas siekiant užtikrinti saugų ir atsakingą jų diegimą. Šis tyrimas yra svarbus žingsnis siekiant išlaikyti mokymuose naudojamų duomenų rinkinių privatumą ir vientisumą.
Daugiau informacijos: Fortunat Rajaona ir kt., Programų semantika ir tikrinimo technika į AI orientuotoms programoms (2023). openresearch.surrey.ac.uk/espl … tputs/99723165702346
Citata: nauja programinė įranga gali patikrinti, kiek informacijos AI iš tikrųjų žino (2023 m. balandžio 4 d.), gauta 2023 m. balandžio 4 d. iš https://techxplore.com/news/2023-04-software-ai.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.

