Naujajame „Symantec“ vaizdo įraše ir tinklaraštyje buvo parodyta kaip dirbtinis intelektas panaudojamas vykdyti sukčiavimo atakai.
Saugumo komanda apie tokius atvejus įspėjo ir anksčiau, kad „nors esami didelės kalbos modelio (LLM) dirbtiniai intelektiniai robotai jau naudojami įsilaužėlių, jie daugiausia yra pasyvūs ir galėtų tik padėti atlikti tokias užduotis kaip sukčiavimo medžiagos kūrimas. Tuo metu prognozavome, kad ilgainiui LLM dirbtiniai intelektiniai robotai bus papildyti agentais ir kad dėl to jie taps galingesni, o tai padidins galimą riziką.“
„Jau kurį laiką stebime, kaip įsilaužėliai naudoja dirbtinį intelektą“, – teigė „Symantec“ atstovas Dickas O‘Brienas.
„Nors žinome, kad juos naudoja kai kurie veikėjai, prognozavome, kad DI agentų atsiradimas gali būti tas momentas, kai DI padedamos atakos pradės kelti didesnę grėsmę, nes agentas nėra pasyvus, jis gali atlikti veiksmus, ne tik generuoti tekstą. Mūsų tikslas buvo išsiaiškinti, ar agentas galėtų įvykdyti ataką iki galo be mūsų įsikišimo, išskyrus pradinį raginimą.“
Kaip sakė J. Stephenas Kowskis iš „SlashNext“, „tokių dirbtinio intelekto agentų kaip „Operator“ atsiradimas rodo dvejopą technologijų prigimtį – produktyvumui sukurtus įrankius ryžtingi užpuolikai gali paversti ginklais, įdėdami minimalias pastangas.“
„Šis tyrimas atskleidžia, kaip dirbtinio intelekto sistemomis galima manipuliuoti pasitelkiant paprastą užklausų technologiją, kad būtų apeinamos etinės apsaugos priemonės ir vykdomos sudėtingos atakų grandinės, kuriose renkama žvalgybinė informacija, kuriamas kenkėjiškas kodas.“
Apribojimai buvo apeiti ir DI pradėjo vykdyti paskirtas užduotis
„Pirmasis bandymas nepavyko, nes „Operator“ mums pranešė, kad negali to tęsti – tai susiję su nepageidaujamų el. laiškų ir potencialiai jautrios informacijos siuntimu“, – sakė „Symantec“.
„Tačiau, pakeitus užklausą, kad būtų nurodyta, jog taikinys leido mums siųsti el. laiškus, šis apribojimas buvo apeitas ir „Operator“ pradėjo vykdyti paskirtas užduotis.“
Naudotas agentas buvo iš „OpenAI“, tačiau tai bus vienodos sąlygos ir svarbu ne dirbtinio intelekto kūrėjo tapatybė, o gebėjimų pobūdis.
Andrew Bolsteris iš „Black Duck“ įspėjo, kad „tokie pavyzdžiai kaip šis parodo spragą pagrindiniuose LLM apsaugos barjeruose, kurie tariamai užkerta kelią blogam elgesiui“.
„Buvome šiek tiek nustebę, kad jis iš tikrųjų mums suveikė pirmąją dieną“, – sakė D. O‘Brienas.
Guy Feinbergas iš „Oasis Security“ su tuo sutiko ir teigė: „DI agentais, kaip ir žmonėmis darbuotojais, galima manipuliuoti. Lygiai taip pat, kaip įsilaužėliai naudoja socialinę erdvę, kad apgautų žmones, jie gali paskatinti dirbtinio intelekto agentus imtis kenkėjiškų veiksmų.“
„Organizacijos turi įdiegti patikimas saugumo kontrolės priemones, kurios numato, kad dirbtinis intelektas bus naudojamas prieš jas“, – įspėjo J. Kowskis.
Patiko straipsnis? Užsiprenumeruokite mūsų naujienlaiškį ir gaukite svarbiausias dienos naujienas bei įdomiausius straipsnius kiekvieną darbo dieną 11 val. Tiesiai į Jūsų el. paštą!