10 consigli per prolungare la durata del tuo robot aspirapolvere
Sep 29, 2023Classifiche NBA Draft Prospect 2023: rapporti di scouting per Victor Wembanyama e altri migliori giocatori su Big Board
May 12, 202323 articoli di viaggio utili per la tua lista dei bagagli per la crociera nel 2023
Sep 08, 202323 meravigliose attività con l'acquerello per stupire i tuoi studenti delle elementari
Nov 13, 2023Il materiale 2D può abilitare Ultra
May 05, 2023ChatGPT crea malware mutante che sfugge al rilevamento da parte di EDR
Di Shweta Sharma
Scrittore senior, CSO |
Una sensazione globale sin dal suo rilascio iniziale alla fine dello scorso anno, la popolarità di ChatGPT sia tra i consumatori che tra i professionisti IT ha suscitato incubi sulla sicurezza informatica su come possa essere utilizzato per sfruttare le vulnerabilità del sistema. Un problema chiave, hanno dimostrato gli esperti di sicurezza informatica, è la capacità di ChatGPT e altri modelli linguistici di grandi dimensioni (LLM) di generare codice polimorfico, o mutante, per eludere i sistemi di rilevamento e risposta degli endpoint (EDR).
Una recente serie di attacchi proof-of-concept mostra come un file eseguibile apparentemente innocuo possa essere realizzato in modo tale che ad ogni runtime effettui una chiamata API a ChatGPT. Invece di limitarsi a riprodurre esempi di frammenti di codice già scritti, a ChatGPT può essere richiesto di generare versioni dinamiche e mutanti di codice dannoso ad ogni chiamata, rendendo gli exploit di vulnerabilità risultanti difficili da rilevare da parte degli strumenti di sicurezza informatica.
"ChatGPT abbassa il livello degli hacker, gli autori malintenzionati che utilizzano modelli di intelligenza artificiale possono essere considerati i moderni 'Script Kiddies'", ha affermato Mackenzie Jackson, sostenitrice degli sviluppatori presso la società di sicurezza informatica GitGuardian. "Il malware che ChatGPT può essere indotto con l'inganno è tutt'altro che innovativo, ma man mano che i modelli migliorano, consumano più dati campione e diversi prodotti arrivano sul mercato, l'intelligenza artificiale potrebbe finire per creare malware che può essere rilevato solo da altri sistemi di intelligenza artificiale per difesa. Quale squadra vincerà in questa partita nessuno lo sa."
Esistono varie prove di concetto che dimostrano il potenziale dello strumento per sfruttare le sue capacità nello sviluppo di malware avanzato e polimorfico.
ChatGPT e altri LLM dispongono di filtri di contenuto che impediscono loro di obbedire a comandi o richieste per generare contenuti dannosi, come codice dannoso. Ma i filtri dei contenuti possono essere aggirati.
Quasi tutti gli exploit segnalati che potrebbero essere potenzialmente eseguiti tramite ChatGPT vengono ottenuti attraverso quella che viene chiamata "prompt engineering", la pratica di modificare le richieste di input per aggirare i filtri dei contenuti dello strumento e recuperare l'output desiderato. I primi utenti scoprirono, ad esempio, che potevano fare in modo che ChatGPT creasse contenuti che non avrebbe dovuto creare - "jailbreaking" del programma - inquadrando le richieste come ipotetiche, ad esempio chiedendogli di fare qualcosa come se non fosse un'intelligenza artificiale ma una persona malintenzionata intenzionata a fare del male.
"ChatGPT ha adottato alcune restrizioni sul sistema, come filtri che limitano la portata delle risposte che ChatGPT fornirà valutando il contesto della domanda", ha affermato Andrew Josephides, direttore della ricerca sulla sicurezza presso KSOC, una società di sicurezza informatica specializzata in Kubernetes. "Se chiedessi a ChatGPT di scriverti un codice dannoso, negherebbe la richiesta. Se chiedessi a ChatGPT di scrivere codice che possa svolgere la funzione effettiva del codice dannoso che intendi scrivere, tuttavia è probabile che ChatGPT crei quel codice per te."
Con ogni aggiornamento, ChatGPT diventa più difficile da ingannare e diventare dannoso, ma con l'ingresso sul mercato di modelli e prodotti diversi non possiamo fare affidamento sui filtri dei contenuti per impedire che gli LLM vengano utilizzati per scopi dannosi, ha affermato Josephides.
La capacità di indurre ChatGPT a utilizzare cose che conosce ma che sono murate dietro i filtri è ciò che può indurre gli utenti a far sì che generi codice dannoso efficace. Può essere utilizzato per rendere il codice polimorfico sfruttando la capacità dello strumento di modificare e ottimizzare i risultati per la stessa query se eseguita più volte.
Ad esempio, un eseguibile Python apparentemente innocuo può generare una query da inviare all'API ChatGPT per elaborare una versione diversa di codice dannoso ogni volta che viene eseguito l'eseguibile. In questo modo, l'azione dannosa viene eseguita al di fuori della funzione exec(). Questa tecnica può essere utilizzata per creare un programma malware mutante e polimorfico difficile da rilevare dagli scanner delle minacce.