Abbiamo più volte trattato l’argomento ChatGPT analizzandone le origini, le potenzialità ed i possibili difetti. Oggi avremo modo invece di valutarne la possibile pericolosità qualora questo nuovo linguaggio sia sfruttato in maniera malevolo.
Ad esprimere il suo pensiero è Stanislav Protassov, Acronis Executive Board member and Co-founder di Acronis.
In linea generale, quali potenzialità offre ChatGPT ad hacker e scammer? Mi spiego meglio: può essere utilizzata per rendere i tentativi di scam più credibili? Può contribuire a estorcere più informazioni alle vittime?
Sostanzialmente, ChatGPT offre ai cybercriminali più velocità e automazione nella scrittura di semplici malware e di testi destinati al phishing.
Al momento non è in grado di creare malware complessi né di modificare in modo rivoluzionario il panorama delle minacce, fatto salvo un aumento nella frequenza degli attacchi.
I modelli di chatbot come ChatGPT vengono a volte definiti “pappagalli stocastici”, un termine che si riferisce ai modelli linguistici addestrati con un enorme volume di dati che, questo sì, sono in grado di generare molte tipologie di testo.
Tuttavia, solo alcune forme di phishing si affidano al senso e al significato dei testi, mentre altre sfruttano gli aspetti più visivi di un’e-mail, ad esempio il fatto che sia molto simile a una notifica di transazione bancaria.
ChatGPT non è in grado di produrre caratteristiche di questo genere. Certamente potrà aiutare gli scammer a generare più testi e in varie lingue, ma non è detto che possa contribuire a generare testi migliori e più convincenti.
Per le potenziali vittime, questa capacità di produrre molteplici testi può essere pericolosa, perché anche i meccanismi anti-phishing possono affidarsi ai modelli linguistici per rilevare l’intento doloso del testo.
È probabile che si possano addestrare i sistemi anti-phishing in modo che riconoscano le e-mail generate da ChatGPT, ma senz’altro siamo di fronte a un ulteriore ciclo e al livello successivo di questa infinita battaglia.
La chatbot ChatGPT può essere utilizzata da hacker e scammer nei modi seguenti:
- Analisi del codice sorgente alla ricerca di vulnerabilità quali SQL injection o overflow del buffer: non si tratta certo di una novità, perché ChatGPT ha già permesso a criminali meno esperti di risparmiare tempo.
- Scrittura di exploit: esiste, ma test recenti mostrano che non funziona poi così bene.
- Automazione del codice: aiuta i principianti ad automatizzare e velocizzare il proprio compito, ad esempio chiedendo alla chatbot di produrre uno script per il dump delle password, da usare per accedere a Twitter.
- Scrittura di malware: benché sia parzialmente impedito dalle linee guida, il sistema è capace di scrivere semplici macro; nulla di nuovo comunque, si trovano anche tramite Google e anche in questo caso si tratta solo di una semplificazione del processo destinata alle masse.
- Chatbot per il social engineering: potrebbe essere una novità per le truffe “419” (dall’articolo del codice penale nigeriano che le punisce), per gli attacchi BEC, per i profittatori di truffe amorose e per gli adescamenti via LinkedIn; tutti casi in cui è necessario interagire. La chatbot aiuta a scrivere messaggi che sembrano simili a una vera conversazione, con un’interazione umana inferiore all’1%, il che, almeno all’inizio, aumenta le possibilità di risposta.
Con quale probabilità e con che frequenza si verificheranno queste situazioni?
Stanno già accadendo: è stato infatti segnalato l’uso di ChatGPT da parte di alcuni red team (squadre che studiano i punti potenzialmente vulnerabili delle aziende), per generare e-mail di phishing.
In alcuni forum underground sono stati segnalati hacker che, con ChatGPT, hanno creato programmi scritti in Python per il furto delle password. Va detto che OpenAI aggiorna e adegua costantemente ChatGPT, per ridurre le probabilità di un suo utilizzo doloso, sia nel mondo fisico che in quello virtuale.
Come possono le aziende, ma soprattutto i singoli utenti, difendersi dalle truffe scam di questo tipo? Quali sono gli indicatori a cui prestare attenzione?
ChatGPT viene addestrata con testi già esistenti: ne consegue che i testi produce non possono essere “migliori”. Per individuare le e-mail potenzialmente pericolose, occorre prestare attenzione ai segnali di scam che già conosciamo, come il senso di urgenza inaspettato che percepiamo nei testi.
Il rilevamento di alcune parole chiave, ad esempio urgente, bonifico bancario, rispondi subito, password, e simili fanno sì che l’e-mail di phishing sembri urgente e importante.
Ricordiamo però che ChatGPT non è in grado di creare magicamente un’e-mail che sembra essere inviata dalla propria banca: questo approccio, ormai vecchio di anni, prevede un aspetto grafico simil-autentico, con indirizzi e-mail e domini fake ed è ancora utilizzato dagli scammer.
È bene fare attenzione a indicatori come le intestazioni delle e-mail o gli URL come SPF, DKIM, DMARC; sono informazioni che indicano il server che ha inviato il messaggio e la sua posizione, oltre ai domini per i quali tale server è stato configurato. In sostanza, anche se il testo dell’e-mail è perfetto, se è stato inviato da un account e-mail del tipo [email protected], non sarà difficile da individuare.
Può fare qualche esempio di situazione in cui un’intelligenza artificiale come ChatGPT può essere utilizzata per ingannare utenti standard, o per violarne le credenziali di accesso? Come possiamo difenderci in scenari di questo tipo?
ChatGPT non può essere usata per inserirsi illegalmente nei computer delle persone, perché è un modello di chatbot che genera testi.
A volte può produrre conversazioni apparentemente ragionevoli, ma distinguerla da quelle umane non è affatto impossibile: ad esempio, se si scrivono messaggi senza senso, un essere umano se ne accorge immediatamente, mentre ChatGPT tenterà di elaborarli e di trovare delle risposte.
Quello che ChatGPT offre è una maggiore accessibilità anche a persone senza competenze tecniche, che possono trasformarsi in criminali informatici. Ricordo però che tanto le minacce persistenti avanzate quanto altri attacchi sono automatizzati da anni: per queste tipologie, la chatbot fa poca differenza.
Per concludere, la chatbot ha dimostrato una sua efficacia nella scrittura di e-mail di phishing convincenti, soprattutto quelle destinate alla compromissione delle e-mail aziendali; al momento non include connessioni a Internet, e se gli hacker puntano a personalizzare quanto scrivono è indispensabile aggiungere un collegamento a LinkedIn o simili.
I modelli di intelligenza artificiale come ChatGPT aiutano a creare più variazioni per rendere i contenuti e le firme più efficaci, perché semplificano la modifica immediata di schemi testuali.
Possono anche produrre testi in varie lingue, assicurando una maggiore copertura nelle lingue locali, ad esempio in tedesco e in italiano.