Kreditas: CC0 viešasis domenas Dideli kalbų modeliai (LLM), tokie kaip „ChatGPT“ ir „Bard“, šiais metais užvaldė pasaulį – įmonės investuoja milijonus, kad sukurtų šiuos AI įrankius, o kai kurie pirmaujantys AI pokalbių robotai vertinami milijardais.
Šios LLM, kurios vis dažniau naudojamos dirbtinio intelekto pokalbių robotuose, iškrapšto visą informacijos internetą, kad sužinotų ir pateiktų atsakymus į vartotojo nurodytas užklausas, vadinamus raginimais.
Tačiau kompiuterių mokslininkai iš AI saugumo startuolio Mindgard ir Lankasterio universiteto Jungtinėje Karalystėje įrodė, kad šių LLM dalis galima nukopijuoti per mažiau nei savaitę už 50 USD, o gauta informacija gali būti panaudota tikslinėms atakoms vykdyti. .
Tyrėjai perspėja, kad užpuolikai, pasinaudoję šiais pažeidžiamumu, gali atskleisti privačią konfidencialią informaciją, apeiti apsauginius turėklus, pateikti neteisingus atsakymus arba rengti tolesnes tikslines atakas.
Išsamiai aprašyti naujame dokumente, kuris bus pristatytas CAMLIS 2023 (Conference on Applied Machine Learning for Information Security), tyrėjai rodo, kad galima pigiai nukopijuoti svarbius esamų LLM aspektus, ir jie demonstruoja pažeidžiamumų perkėlimo tarp skirtingų modelių įrodymus.
Ši ataka, vadinama „modelio išplovimu“, veikia taip, kad su LLM kalbama – prašoma tikslinių raginimų, kad LLM gautų įžvalgios informacijos, nurodančios, kaip modelis veikia.
Mokslininkų komanda, kuri savo tyrime daugiausia dėmesio skyrė „ChatGPT-3.5-Turbo“, panaudojo šias žinias kurdama savo kopijavimo modelį, kuris buvo 100 kartų mažesnis, bet atkartojo pagrindinius LLM aspektus.
Tada mokslininkai galėjo panaudoti šią modelio kopiją kaip bandymų vietą, kad išsiaiškintų, kaip išnaudoti „ChatGPT“ pažeidžiamumą be aptikimo. Tada jie galėjo panaudoti žinias, surinktas iš savo modelio, kad atakuotų ChatGPT pažeidžiamumą, o sėkmės rodiklis padidėjo 11%.
Dr. Peteris Garraghanas iš Lankasterio universiteto, Mindgard generalinis direktorius ir vyriausiasis tyrimo tyrėjas, sakė: „Tai, ką mes atradome, yra moksliškai žavinga, bet labai nerimą kelianti. Tai vienas pirmųjų darbų, empiriškai įrodančių, kad saugumo spragas galima sėkmingai perkelti. tarp uždarojo kodo ir atvirojo kodo mašininio mokymosi modelių, o tai labai nerimą kelia, atsižvelgiant į tai, kiek pramonė remiasi viešai prieinamais mašininio mokymosi modeliais, esančiais tokiose vietose kaip HuggingFace.
Tyrėjai teigia, kad jų darbas pabrėžia, kad nors šios galingos skaitmeninės AI technologijos turi aiškų panaudojimą, yra paslėptų trūkumų ir netgi gali būti bendrų modelių pažeidžiamumo.
Visos pramonės įmonės šiuo metu arba ruošiasi investuoti milijardus kurdamos savo LLM, kad galėtų atlikti įvairias užduotis, pvz., išmaniuosius asistentus. Finansinės tarnybos ir didelės įmonės taiko šias technologijas, tačiau mokslininkai teigia, kad šios pažeidžiamybės turėtų kelti didelį susirūpinimą visoms įmonėms, kurios planuoja kurti arba naudoti trečiųjų šalių LLM.
Dr. Garraghanas sakė: „Nors LLM technologija yra potencialiai transformuojanti, įmonės ir mokslininkai turės labai gerai pagalvoti, kaip suprasti ir įvertinti kibernetinę riziką, susijusią su LLM pritaikymu ir diegimu“.
Citata: AI tyrėjai atskleidžia svarbių didelių kalbų modelių (2023 m. spalio 12 d.) pažeidžiamumą, gautą 2023 m. spalio 13 d. iš https://techxplore.com/news/2023-10-ai-expose-critical-vulnerabilities-major.html
Šis dokumentas yra saugomas autorių teisių. Išskyrus bet kokius sąžiningus sandorius privačių studijų ar mokslinių tyrimų tikslais, jokia dalis negali būti atkuriama be raštiško leidimo. Turinys pateikiamas tik informaciniais tikslais.