Progresele rapide în inteligența artificială (AI) deschid noi posibilități în diverse domenii, inclusiv în securitatea cibernetică. Modelele lingvistice mari (LLM) pot ajuta apărătorii să cearnă telemetria complexă, să descopere vulnerabilități și să eficientizeze operațiunile. Cu toate acestea, aceleași capabilități AI sunt disponibile și pentru atacatori, ceea ce duce la îngrijorări privind utilizarea abuzivă a AI în scopuri rău intenționate.
Utilizarea AI de către atacatori
Actorii amenințărilor cibernetice, inclusiv amenințările persistente avansate (APT) și operatorii de informații coordonate (IO), încearcă să folosească AI pentru a-și îmbunătăți operațiunile. De exemplu, actorii APT iranieni au fost cei mai mari utilizatori ai AI, folosind-o pentru cercetare, dezvoltarea sarcinilor utile și asistență cu scripturi rău intenționate. Actorii IO au folosit AI pentru generarea de conținut, traducere și localizare, precum și pentru a găsi modalități de a-și crește acoperirea.
Măsuri de siguranță și colaborare
Google subliniază importanța colaborării între sectorul privat, guverne, instituții de învățământ și alte părți interesate pentru a maximiza beneficiile AI și a reduce riscurile de abuz. La Google, se dezvoltă continuu modele de inteligență artificială pentru a le face mai puțin susceptibile la utilizare abuzivă și se aplică informațiile pentru a îmbunătăți apărarea și protecția utilizatorilor.
Concluzii
Deși AI poate fi un instrument util pentru actorii amenințărilor, nu este încă schimbătorul de joc care este uneori portretizat. Actorii amenințărilor folosesc AI generativă pentru a îndeplini sarcini obișnuite, cum ar fi depanarea, cercetarea și generarea de conținut, dar nu dezvoltă încă capabilități noi. Este esențial ca toate părțile interesate să colaboreze pentru a maximiza beneficiile AI și a reduce riscurile de abuz.