ChatGPT potenziale rischio, il cybercrimine può sfruttarlo

Un’analisi dei ricercatori di Check Point evidenzia cinque possibili utilizzi malevoli di ChatGPT4, la più recente versione del software di OpenAI.

Pubblicato il 22 marzo 2023

L’intelligenza artificiale è un alleato della cybersicurezza o un complice del cybercrimine? La domanda non è nuova, anzi da anni ormai l’AI ha cominciato a essere integrata nelle soluzioni di cybersicurezza di molti vendor, dimostrando di saper migliorare e velocizzare sia il rilevamento delle minacce sia la risposta. D’altra parte è altrettanto noto che i cybercriminali stanno sfruttando a loro volta le diverse forme di questa tecnologia per potenziare l’efficacia degli attacchi (l’esempio più classico è quello del phishing). Il tema è comunque sempre nuovo perché l’AI è in continua evoluzione e oggi si parla molto di intelligenza artificiale generativa, una tecnologia capace di comprendere e manipolare il linguaggio verbale scritto e parlato, le immagini.

I risultati sono ancora imperfetti ma in rapida evoluzione e modelli come GPT-3 (che è alla base di ChatGPT) cominciano a essere integrati nei software e servizi dei grandi colossi tecnologici, come Microsoft, Google, Alibaba, Salesforce, per aiutare l’utente a trovare risposte in mezzo a un mare di dati o a velocizzare attività di routine o anche creative (dalla scrittura di una email alla creazione di presentazioni). Ma l’AI generativa può anche aiutare a  scovare minacce all’interno delle grandi quantità di dati prodotti dai software di cybersicurezza, come evidenziato da un nuovo report di Sophos.

Quasi in contemporanea è giunta però anche l’analisi di un altro vendor di sicurezza informatica, Check Point Software. La sua divisione Threat Intelligence ha studiato  ChatGPT4, la più recente versione della tecnologia generativa di OpenAI, evidenziando che anche malintenzionati poco esperti potrebbero usarla per creare strumenti d’attacco, rapidamente e con un piccolo sforzo. Vero è che il software (descritto da OpenAI come più potente, più abile e anche più sicuro della precedente versione) presenta alcune restrizioni mirate a bloccare gli utilizzi malevoli, ma queste misure possono essere facilmente aggirate.
 

I ricercatori hanno individuato, in particolare, cinque scenari di utilizzo potenzialmente malevolo di ChatGPT4: la creazione di malware basato su codice C++ che raccoglie file PDF, inviandoli poi all’Ftp (File Transfer Protocol); attacchi di phishing di impersonificazione (in particolare, fingendo che il mittente sia una banca); email di phishing indirizzate a dipendenti aziendali; PHP Reverse Shell; utilizzo di un programma Java che scarica ed esegue un PuTTY (client per SSH) che può essere lanciato come powershell nascosto.

“Dopo aver individuato molteplici modi in cui ChatGPT può essere sfruttato dai criminali informatici, abbiamo trascorso gli ultimi giorni a verificare se qualcosa fosse cambiato con l'arrivo dell’ultima versione del tool”, ha raccontato Oded Vanunu, head of products vulnerabilities research di Check Point. “Sebbene la nuova piattaforma sia chiaramente migliorata su molti livelli, possiamo tuttavia segnalare che esistono potenziali scenari in cui gli aggressori possono accelerare le loro operazioni criminali. Gli aggressori, che siano esperti o meno, possono anche utilizzare le risposte rapide di ChatGPT4 per superare le sfide più tecniche così da creare malware”.

“ChatGPT4 può essere utile sia a degli attori buoni, ma anche a quelli pericolosi”, ha sottolineato il ricercatore. “Gli utenti con buone intenzioni possono usare ChatGPT per creare e distribuire codici utili alla società, ma al contempo gli aggressori possono servirsi di questa tecnologia AI per commettere crimini informatici”. Gli esperti di Check Point si aspettano che i tentativi di utilizzo malevolo di questa tecnologia proseguano in futuro.

D’altra parte è assai improbabile che lo sviluppo di tecnologie come ChatGPT possa interrompersi, mentre è più verosimile che si debba ragionare su misure di sicurezza più efficaci. L’ultima versione del software di OpenAI ha già trovato diverse applicazioni sperimentali di rilievo: il governo islandese, per esempio, la sta utilizzando per coniare neologismi e preservare la lingua nazionale dalla colonizzazione anglofona, mentre Morgan Stanley ne fa uso per organizzare l’ampia knowledge per le attività di gestione dei patrimoni. Il software è disponibile per gli abbonati al servizio ChatGPT Plus e come interfaccia Api rivolta agli sviluppatori.

Tag: check pointintelligenza artificialeopenaicybersicurezzachatGPT

Potrebbe interessarti anche

https://www.ictbusiness.it/cont/news/chatgpt-potenziale-rischio-il-cybercrimine-puo-sfruttarlo/47583/1.html#.ZCPUUnZBzIU

Leave a Reply

Your email address will not be published. Required fields are marked *