Un nuovo chatbot di intelligenza artificiale generativa chiamato GhostGPT sta attirando l’attenzione nel mondo del cybercrimine. Questo strumento avanzato è progettato per assistere in attività malevole come la creazione di malware e l’elaborazione di email di phishing.
Venduto tramite Telegram dal 2024
Secondo i ricercatori di Abnormal Security, GhostGPT è stato avvistato in vendita su Telegram sin dalla fine del 2024. Si ritiene che utilizzi un wrapper per connettersi a una versione jailbroken di ChatGPT o a un altro modello di linguaggio open-source, garantendo risposte non censurate ai clienti.
GhostGPT segue l’introduzione di WormGPT, un altro chatbot AI lanciato nel 2023 per supportare attacchi di business email compromise (BEC). Da allora, sono emerse ulteriori varianti come WolfGPT e EscapeGPT, evidenziando un trend crescente nell’uso dell’AI per scopi illeciti.
I ricercatori hanno notato che GhostGPT ha attirato migliaia di visualizzazioni sui forum online, segno di un interesse crescente da parte dei cybercriminali per strumenti AI avanzati.
Un alleato efficace per il cybercrimine
GhostGPT si distingue come un potente strumento, in grado di aiutare anche criminali informatici con competenze limitate a condurre campagne di attacco efficaci. L’accesso al chatbot è semplice: basta acquistarlo su Telegram, dove è disponibile come bot. Ciò elimina la necessità di jailbreaking o configurazioni di modelli open-source.
“I clienti possono pagare una tariffa, accedere immediatamente e concentrarsi direttamente sull’esecuzione dei loro attacchi” hanno spiegato i ricercatori.
Gli sviluppatori di GhostGPT affermano che l’attività degli utenti non viene registrata, consentendo loro di nascondere le operazioni illegali. Il chatbot è pubblicizzato per una vasta gamma di attività, tra cui: Scrittura di codice malevolo, Creazione di malware, Sviluppo di exploit, Redazione di email convincenti per campagne di phishing e BEC. Il materiale promozionale del tool sottolinea la rapidità delle risposte, permettendo ai clienti di produrre contenuti dannosi e raccogliere informazioni in modo più efficiente.
Test delle capacità di GhostGPT
Per verificare l’efficacia dello strumento, i ricercatori hanno chiesto a GhostGPT di creare un’email di phishing utilizzando DocuSign come pretesto. Il chatbot è riuscito a generare rapidamente un modello convincente, dimostrando la sua potenzialità nel supportare attività criminali.
Conclusioni
GhostGPT rappresenta un’evoluzione preoccupante nel panorama delle minacce informatiche, offrendo ai criminali uno strumento accessibile e potente per condurre attacchi sofisticati. La diffusione di questi chatbot solleva nuove sfide per la sicurezza informatica, evidenziando la necessità di strumenti avanzati per contrastare l’abuso delle tecnologie AI.
A proposito di sicurezza informatica, hai letto la nostra guida su come riconoscere e proteggersi dagli attacchi Phishing?
Se vuoi restare aggiornato sul mondo della tecnologia seguici sui nostri social (oltre che sul blog) e da smartphone tramite il nostro canale Telegram, oppure il nuovissimo canale Whatsapp, in modo da ricevere una notifica ogni volta che viene pubblicato un articolo, o se abbiamo qualcosa in più da comunicare. #ètempoditecnologia
-fonte infosecurity magazine