Hackerii folosesc AI pentru atacuri cibernetice

Într-o lume digitalizată, unde inteligența artificială devine tot mai avansată, apar și riscuri noi. Recent, Google a avertizat că grupuri de hackeri folosesc AI-ul Gemini pentru a-și îmbunătăți atacurile cibernetice. În același timp, un raport al firmei de securitate cibernetică KELA a dezvăluit că modelele DeepSeek R1 și Qwen 2.5 de la Alibaba prezintă vulnerabilități grave, cercetătorii din Unitatea 42 au demonstrat tehnici de jailbreaking care permit utilizarea acestor modele în scopuri rău intenționate.

Acest articol analizează modul în care hackerii exploatează aceste tehnologii și ce măsuri de securitate sunt necesare pentru a preveni atacurile.

AI în mâinile hackerilor: de la Gemini la DeepSeek

Imaginați-vă un scenariu în care cele mai avansate instrumente de inteligență artificială, create pentru a ajuta omenirea, devin arme în mâinile unor atacatori sofisticați. Exact acest lucru se întâmplă acum cu Gemini AI și alte modele similare. Grupările APT (Advanced Persistent Threat) sunt cunoscute pentru atacurile lor complexe și persistente. Acestea au identificat în sistemele AI o oportunitate fără precedent de a-și amplifica capacitățile ofensive.

Exploatarea modelelor Gemini, DeepSeek și Qwen

Grupurile de atacatori cibernetici de tip APT (Advanced Persistent Threat) au început să folosească Gemini AI pentru a-și îmbunătăți tacticile. Aceste grupuri sunt de obicei finanțate de state sau sunt extrem de bine organizate, iar utilizarea AI le permite să opereze la un nivel superior.

Analiză

Pentru a înțelege amploarea problemei, trebuie să privim dincolo de cazul izolat al Gemini AI. Firma de securitate cibernetică KELA a dezvăluit recent vulnerabilități alarmante în alte modele AI populare. DeepSeek R1 și Qwen 2.5 sunt dezvoltate de gigantul tehnologic Alibaba. Acestea au măsuri de securitate insuficiente și sunt vulnerabile la atacuri de injecție de prompturi. Aceste atacuri permit hackerilor să manipuleze modelele AI. Motivul este de a genera răspunsuri malițioase sau pentru a ocoli restricțiile de securitate implementate.

Cercetătorii din Unitatea 42 au dus investigația mai departe. Ei au demonstrat că modelele DeepSeek R1 și V3 pot fi compromise prin tehnici de jailbreaking. Acest lucru înseamnă că atacatorii pot evita metodele de restricții etice și de securitate, transformându-le în instrumente pentru activități malițioase.

Când vorbim despre modul în care hackerii folosesc aceste sisteme AI, pattern-urile de atac sunt diverse și sofisticate:

Automatizarea atacurilor: phishing și inginerie socială

AI-ul poate genera e-mailuri, mesaje text și pagini web extrem de convingătoare, menite să păcălească utilizatorii să ofere date sensibile. Cu ajutorul AI, atacurile de tip ransomware, inginerie socială și atacuri asupra infrastructurilor critice devin mai sofisticate și mai greu de detectat.

Explorarea și exploatarea vulnerabilităților

Gemini AI poate analiza rapid rețelele IT pentru a identifica punctele slabe, accelerând procesul de atac.

Crește productivitatea

Gemini AI îi ajută pe hackeri să scrie cod. De asemenea, îi asistă în căutarea de vulnerabilități și metode noi de atac. Gemini AI poate ajuta hackerii să colecteze informații despre țintele lor. Aceste informații ar putea fi adresele IP, adresele de e-mail și parolele.

Google a atras atenția asupra acestui fenomen și lucrează pentru a introduce măsuri mai stricte de securitate în cadrul Gemini AI, însă amenințarea rămâne reală.

Pe lângă Gemini și alte modele de AI au fost identificate ca fiind vulnerabile la abuzuri. OpenAI a exprimat preocupări cu privire la utilizarea rău intenționată a tehnologiilor sale, în timp ce firma de informații privind securitatea cibernetică KELA a publicat recent detalii despre măsurile de securitate laxe pentru modele precum DeepSeek R1 și Qwen 2.5 de la Alibaba.

Prompt Injection și Jailbreaking: tehnici avansate de atac

KELA a demonstrat că DeepSeek R1 și Qwen 2.5 sunt vulnerabile la atacuri de injecție promptă. Aceste atacuri permit hackerilor să manipuleze modelul AI pentru a genera răspunsuri nepotrivite. Ei pot ocoli filtrele de siguranță sau chiar a furniza informații despre metode de hacking ori chiar să execute comenzi malicioase. De exemplu, un atacator poate folosi un prompt de injecție pentru a obține informații sensibile sau pentru a genera cod malitios.

Jailbreaking

Cercetătorii din Unitatea 42, divizia de securitate cibernetică a Palo Alto Networks, au demonstrat tehnici eficiente de jailbreaking împotriva modelelor DeepSeek R1 și V3. Jailbreaking-ul permite hackerilor să ocolească restricțiile impuse de dezvoltatorii AI. Modelele devin astfel instrumente pentru activități malițioase, cum ar fi generarea de conținut dăunător, instrucțiuni pentru hacking și atacuri cibernetice. Pot fi folosite inclusiv pentru ghiduri privind malware, ransomware și metode de evitare a detectării.

Faptul că aceste modele sunt ușor de manipulat pune în pericol nu doar utilizatorii individuali, ci și organizațiile care se bazează pe AI pentru diverse activități.

Recomandările experților pentru protecție AI

  • Transparență și Responsabilitate: Dezvoltatorii trebuie să fie deschiși cu privire la capacitățile și limitările modelelor lor.

  • Măsuri de Securitate Îmbunătățite: Implementarea de protecții avansate împotriva atacurilor de injecție și jailbreaking.

  • Colaborare Globală: Încurajarea cooperării între organizații pentru a stabili standarde de securitate în domeniul AI.

  • Monitorizarea și actualizarea constantă a sistemelor: Aplicațiile AI trebuie să fie actualizate cu patch-uri de securitate.

  • Investiții în tehnologii AI de apărare: AI poate fi folosit pentru detectarea comportamentelor anormale și identificarea atacurilor.

  • Auditarea regulată a modelelor AI: Organizațiile care folosesc AI trebuie să efectueze audituri pentru a identifica eventuale vulnerabilități.

  • Educația și conștientizarea utilizatorilor: Angajații și utilizatorii trebuie să fie informați despre riscurile AI și despre cum să recunoască atacurile bazate pe inginerie socială.

Concluzie: ce ne rezervă viitorul în securitate AI

Utilizarea AI în atacurile cibernetice devine o realitate tot mai alarmantă. Faptul că APT-urile folosesc Gemini AI, iar modelele DeepSeek R1 și Qwen 2.5 sunt vulnerabile la atacuri de injecție, ridică probleme serioase de securitate. Mai mult, cercetările Unității 42 arată că DeepSeek R1 și V3 pot fi manipulate prin tehnici de jailbreaking, ceea ce le face și mai periculoase.

Pentru a preveni un viitor în care AI-ul este utilizat ca armă cibernetică, comunitatea globală trebuie să colaboreze pentru a introduce standarde mai stricte de securitate și pentru a educa utilizatorii în privința noilor amenințări.

Pentru mai multe știri și sfaturi despre lumea IT, recomandă blogul meu și nu uita să te aboneazi la newsletter!

Poți ajuta distribuind sau recomandând acest articol.