Google-ის Threat Intelligence Group-ის (GTIG) მკვლევარებმა აღმოაჩინეს, რომ ჰაკერები ქმნიან მავნე პროგრამებს, რომლებიც დიდ ენობრივ მოდელებს (LLM-ებს) იყენებენ, რათა საკუთარი კოდი დინამიკურად გადაადგილონ და გადაკეთონ.
GTIG-ის მიერ ახლახან გამოქვეყნებულ ბლოგპოსტში აღწერილი ექსპერიმენტული მავნე პროგრამების ოჯახი, სახელად PROMPTFLUX საკუთარ კოდს ხელახლა წერს, რათა დაუფიქსირებელი დარჩეს.
ეს არის ესკალაცია, რომელიც მომავალში მავნე პროგრამების აღმოჩენას გაცილებით გაართულებს და კიდევ უფრო გამოკვეთს იმ მზარდ კიბერუსაფრთხოების რისკებს, რომლებიც გენერაციული AI-ს გამოჩენამ და ფართო გამოყენებამ მოიტანა.
PROMPTFLUX-ის მსგავსი ხელსაწყოები „დინამიკურად ქმნიან მავნე სკრიპტებს, აბუნდოვანებენ საკუთარ კოდს, რათა თავიდან აიცილონ დეტექცია და იყენებენ AI მოდელებს იმისთვის, რომ საჭიროებისამებრ შექმნან მავნე ფუნქციები, მათ პირდაპირ კოდში ჩაშენების ნაცვლად,“ - წერს GTIG.
ტექნოლოგიური გიგანტის თქმით, ეს ახალი „just-in-time“ მიდგომა „არის მნიშვნელოვანი ნაბიჯი უფრო ავტონომიური და ადაპტირებადი მავნე პროგრამების მიმართულებით“.
PROMPTFLUX არის ტროიანის ტიპის მავნე პროგრამა, რომელიც Google-ის Gemini AI მოდელის API-სთან ურთიერთობს, რათა ისწავლოს, როგორ გადააკეთოს საკუთარი თავი დეტექციის თავიდან ასაცილებლად.
„PROMPTFLUX-ის ნიმუშების შემდგომმა ანალიზმა აჩვენა, რომ ეს კოდის ოჯახი ამჟამად განვითარების ან ტესტირების ფაზაშია, რადგან ზოგიერთი დაუსრულებელი ფუნქცია დაკომენტარებულია და არსებობს მექანიზმი, რომელიც მავნე კოდის Gemini API-ის ქოლების რაოდენობას ზღუდავს,“ - აღნიშნავს ჯგუფი.
საბედნიეროდ, exploit-ი ჯერჯერობით არ დაფიქსირებულა რეალურ გარემოში, რადგან „მისი ამჟამინდელი მდგომარეობა არ დემონსტრირებს უნარს, რომ კომპრომიტირება მოახდინოს მსხვერპლის ქსელზე ან მოწყობილობაზე,“ - აღნიშნავს Google. „ჩვენ უკვე მივიღეთ ზომები ამ აქტივობასთან ასოცირებული რესურსების გასათიშად.“
მიუხედავად ამისა, GTIG აღნიშნავს, რომ PROMPTFLUX-ის ტიპის მავნე პროგრამები, როგორც ჩანს, „ფინანსურად მოტივირებულ აქტორებთან“ არის დაკავშირებული. გუნდი გვაფრთხილებს, რომ ყალიბდება „შავი ბაზარი უკანონო AI-ხელსაწყოებისთვის“.
მტრული აქტორების მიერ AI-ხელსაწყოების გამოყენების რისკი ძალიან რეალურია. Google-ის თქმით, „სახელმწიფოს მიერ მხარდაჭერილი აქტორები ჩრდილოეთ კორეიდან, ირანიდან და ჩინეთის სახალხო რესპუბლიკიდან“ უკვე ცდეპს ატარებენ AI-ზე, რათა გააძლიერონ საკუთარი ოპერაციები.
ამ საფრთხის საპასუხოდ, GTIG-მ წარმოადგინა ახალი კონცეპტუალური ჩარჩო, რომელიც მიზნად ისახავს AI სისტემების დაცვას.
მიუხედავად იმისა, რომ გენერაციული AI შეიძლება გამოიყენონ პრაქტიკულად შეუმჩნეველი მავნე პროგრამების შესაქმნელად, ის კარგისთვისაც შეიძლება გამოიყენონ. მაგალითად, Google-მა ცოტა ხნის წინ წარადგინა AI-აგენტი სახელად Big Sleep, რომელიც შექმნილია იმისთვის, რომ AI-ს დახმარებით პროგრამულ უზრუნველყოფაში უსაფრთხოების სისუსტეები აღმოაჩინოს.
სხვა სიტყვებით რომ ვთქვათ, ეს არის AI AI-ის წინააღმდეგ - სწრაფად განვითარებადი კიბერომი, სადაც ბრძოლა გონიერ ინსტრუმენტებს შორის მიდის.