FraudGPT, il gemello malevolo di ChatGPT, sta emergendo come una nuova minaccia nel panorama della cyber-sicurezza.
Questo chatbot, basato sull’intelligenza artificiale (IA), si distingue per la sua funzione offensiva: è progettato per lanciare con successo campagne di phishing e truffe, creare email di spear phishing e strumenti di cracking e carding.

fraudGPT

L’emergenza di FraudGPT è un segno preoccupante di come l’IA possa essere utilizzata per scopi malevoli. Lanciato sul dark web, è appena apparso sui canali di Telegram il 22 luglio 2023, secondo un rapporto di Netenrich. Il bot non solo permette di compiere azioni dannose, ma può anche selezionare i migliori servizi o siti da prendere di mira per frodare gli utenti, mostrando così un livello di sofisticazione senza precedenti.

FraudGPT offre un servizio completo di assistenza clienti, crea malware non rilevabili, pagine di phishing e strumenti di hacking, e trova siti, pagine e gruppi target, oltre a identificare vulnerabilità e leak.
Questo bot è in vendita sui mercati del dark web e Telegram a un prezzo di $200 al mese o di $1.700 in abbonamento annuale, con un servizio di assistenza disponibile 24 ore su 24, 7 giorni su 7.

FraudGPT evidenzia l’evoluzione del cybercrime nell’era dell’IA.
Le tecnologie di IA, in particolare i modelli rigenerativi come GPT, stanno radicalmente cambiando lo scenario del cybercrime. Ora, i criminali informatici possono utilizzare l’IA per garantire un margine di successo molto più elevato per le loro truffe di phishing.

Il pericolo di FraudGPT e simili chatbot risiede nel loro potenziale di danneggiare sia le persone fisiche sia le organizzazioni. Possono simulare la comunicazione umana in modo convincente, ingannare le persone per ottenere informazioni sensibili o indurle a eseguire azioni che possono compromettere la loro sicurezza informatica.

La presenza di FraudGPT segnala l’importanza di avere salvaguardie etiche nell’implementazione dell’IA.
Le organizzazioni possono creare strumenti come ChatGPT con queste salvaguardie, ma non è difficile per i criminali reimplementare la stessa tecnologia senza di esse.

Il futuro della cyber-sicurezza richiede una consapevolezza sempre maggiore delle minacce in evoluzione, come FraudGPT.
È necessario sviluppare strategie di difesa robuste, compresi protocolli di sicurezza più rigidi e strumenti avanzati, per combattere queste minacce emergenti. Con l’IA che diventa sempre più un’arma a doppio taglio, la responsabilità di utilizzarla con etica e responsabilità diventa sempre più cruciale.