Cercetătorii în securitate cibernetică au descoperit un aspect alarmant al inteligenței artificiale (AI), și anume capacitatea modelelor de limbaj mari (LLM) de a genera variante de malware JavaScript într-un mod eficient și la scară largă.
AI ar putea genera 10.000 de variante de malware, evitând detectarea în 88% din cazuri
Aceasta ar putea duce la creșterea semnificativă a riscurilor de securitate cibernetică, având în vedere că aceste variante pot evita detectarea în majoritatea cazurilor. Deși modelele LLM nu sunt încă capabile să creeze malware complet de la zero, infractorii pot folosi aceste instrumente pentru a modifica codul deja existent, făcându-l mult mai greu de identificat de către sistemele de detecție, scrie presa de specialitate.
Un raport realizat de cercetătorii Unit 42 din cadrul Palo Alto Networks arată că LLM-urile pot fi folosite pentru a rescrie malware-ul existent printr-o serie de transformări care îl fac să pară mai natural. Astfel, acest malware nu doar că devine mai greu de detectat de modelele de învățare automată (machine learning), dar poate induce în eroare sistemele de clasificare ale malware-ului, care pot considera un cod malițios ca fiind benign.
Cercetătorii au folosit LLM-urile pentru a crea 10.000 de variante noi de JavaScript, fără a modifica comportamentul acestora, dar reușind să scadă scorul de malignitate și să evite detectarea de către modele de machine learning, cum ar fi Innocent Until Proven Guilty (IUPG) și PhishingJS.
Metoda folosită presupune o tehnică de învățare automată adversarială, prin care se aplică diverse transformări asupra codului original. Printre acestea se numără redenumirea variabilelor, împărțirea șirurilor de caractere, inserarea de cod inutil, eliminarea spațiilor albe inutile și chiar o reimplementare completă a codului. Aceste modificări fac ca varianta de malware să rămână funcțională, dar să obțină un scor mult mai mic de periculozitate și să fie mult mai greu de detectat. De exemplu, algoritmul utilizat de cercetători a reușit să modifice verdictul unui model de clasificare a malware-ului de la „malițios” la „benign” în 88% din cazuri.
Un alt aspect îngrijorător este că aceste variante de malware pot ocoli și alte platforme de detecție, cum ar fi VirusTotal, care analizează fișierele încărcate de utilizatori. Malware-ul modificat cu ajutorul LLM-urilor poate trece neobservat de către majoritatea analizatorilor de malware, ceea ce face mai dificilă protejarea utilizatorilor și a sistemelor de atacuri informatice.
Un alt avantaj major al ofuscării bazate pe LLM este faptul că modificările generate de aceste modele sunt mult mai naturale și mai greu de detectat decât cele realizate cu ajutorul unor librării tradiționale de obfuscare, cum ar fi obfuscator.io. Aceasta din urmă modifică codul într-un mod mai evident și mai ușor de urmărit, în timp ce LLM-urile aplică schimbări care nu sunt la fel de evidente, ceea ce le face mai eficiente în eludarea sistemelor de detecție.
Chiar dacă riscurile sunt semnificative, cercetătorii sugerează că aceleași tehnici pot fi folosite și pentru a crea date de antrenament care să îmbunătățească robustețea modelelor de învățare automată în fața atacurilor de acest tip. Astfel, în loc să încurajeze abuzul LLM-urilor pentru generarea de malware, aceste instrumente ar putea fi folosite pentru a construi modele mai rezistente la atacuri.
Atacul TPUXtract vizează Google Edge TPUs
O altă descoperire importantă vine din partea cercetătorilor de la Universitatea de Stat din Carolina de Nord, care au dezvoltat un atac side-channel denumit TPUXtract. Acest atac vizează unitățile de procesare Tensor (TPUs) de la Google Edge, folosite în aplicațiile de învățare automată. TPUXtract permite extragerea cu o acuratețe de 99,91% a hiperparametrilor modelelor de învățare automată. Astfel, atacatorii pot accesa configurațiile de layer, tipurile de noduri, dimensiunile kernel-urilor și alți parametri ai modelului AI, facilitând furtul de proprietate intelectuală și lansarea de atacuri cibernetice ulterioare.
EPSS vulnerabil la manipulare
Într-un alt raport, Morphisec a arătat că sistemele de predicție a riscurilor, precum Exploit Prediction Scoring System (EPSS), care ajută la identificarea vulnerabilităților software, sunt vulnerabile la atacuri de manipulare. Actorii rău intenționați pot să influențeze ieșirea acestor modele prin generarea de activitate artificială pe rețelele sociale și prin crearea unor depozite de exploit-uri false pe GitHub. Aceasta poate duce la o evaluare incorectă a riscurilor și poate îndrumă organizațiile să prioritizeze greșit gestionarea vulnerabilităților.
CITEȘTE ȘI – Sora, generator video bazat pe inteligență artificială, lansat în SUA