L’AI riduce le barriere per i cyber criminali che stanno sfruttando sempre più strumenti di intelligenza artificiale per sferrare nuove campagne di phishing.
Ma, secondo Dario Fadda, esperto di cyber sicurezza e collaboratore di Cybersecurity360, “non stiamo più parlando solo di cyber criminali esperti in coding, ma di un potenziale esercito di malintenzionati che, con una semplice descrizione in linguaggio naturale, possono allestire in pochi minuti una trappola digitale credibile. È come se avessero dato una chiave master a chiunque sappia aprire un lucchetto”.
Il motivo è semplice. “La capacità con cui l’intelligenza artificiale generativa produce contenuti sta abbassando drasticamente la soglia d’ingresso per i cyber criminali”, commenta Pierluigi Paganini, analista di cyber security e Ceo Cybhorus.
Ecco come mitigare il rischio della democratizzazione dell’AI.
È cruciale che le persone siano consapevoli di questa nuova minaccia. La sensibilizzazione è la prima arma di difesa.
“Continueremo a monitorare attentamente l’evoluzione di queste tecniche e a fornire le informazioni necessarie per proteggere individui e aziende”, avverte Ferdinando Mancini, Director, Southern Europe & Israel Sales Engineering di Proofpoint.
L’intelligenza artificiale è sempre più accessibile anche ai cyber criminali, sempre più abili a sfruttare tool AI per realizzare con semplicità inaudit e grande velocità siti web fasulli, utili per sferrare campagne di phishing e distribuire malware.
“L’intelligenza artificiale come elemento abilitante del cyber crimine che riesce a renderlo più accessibile, automatizzato e su larga scala“, secondo Pierluigi Paganini.
L’abuso di piattaforme di AI generativa emerge come crescente minaccia, che ha scoperto nuove preoccupanti frontiere per gli attori malevoli.
“Oggi anche chi ha scarse competenze tecniche può creare campagne di phishing estremamente efficienti, malware personalizzati e attacchi mirati sfruttando modelli generativi e strumenti AI open-source”, spiega Paganini: “Gli esperti constatano che campagne di phishing basate su AI-site generators diventano sempre più frequenti e sofisticate”.
I ricercatori di Proofpoint, in particolare, sono riusciti a identificare e monitorare l’uso sempre più diffuso di un’applicazione di creazione di siti web basata sull’ intelligenza artificiale, Lovable AI, da parte di cyber criminali.
“Strumenti come Lovable AI, nati con intenti legittimi, stanno diventando le ‘fabbriche di falsi’ del digitale“, spiega Dario Fadda: “Il vero pericolo, a mio avviso, non è solo la rapidità di creazione, ma la qualità del prodotto finale. Questi siti fraudolenti sono esteticamente impeccabili e funzionalmente persuasivi, il che erode il principale meccanismo di difesa dell’utente medio: l’istinto di diffidenza verso ciò che appare ‘sospetto’ o male impostato”.
Lovable AI è una piattaforma, progettata per facilitare la progettazione anche a chi ha conoscenze limitate di web design, che ora attori malevoli sfruttano per generare pagine di phishing credibili, in grado di imitare brand e trarre in inganno gli utenti.
Le campagne osservate usano questi siti per campagne ad ampio spettro: phishing di credenziali (anche MFA), per raccogliere informazioni personali e finanziarie (carte di credito, drainer di wallet crypto) e distribuire malware.
Tra le campagne più significative, quelle dedite alla distribuzione di kit di phishing Tycoon, fingendosi come condivisione di file o comunicazioni HR.
“Proofpoint ha identificato l’uso sempre più esteso di piattaforme come Lovable AI, uno strumento pensato per creare siti web con semplicità, ora abusato per montare pagine di phishing credibili che simulano marchi noti (come riportato nei report Proofpoint)”, spiega Paganini: “Le campagne attive includono phishing di credenziali (anche con MFA), raccolta di dati finanziari, wallet crypto e distribuzione di malware. Preoccupante la scoperta di Proofpoint di centinaia di migliaia di URL creati con Lovable AI ogni mese da febbraio 2025, con campagne che usano kit di phishing Tycoon mascherati come file sharing o comunicazioni HR”.
Questi tool non si limitano alle email, ma si estendono anche a comunicazioni via Sms, come frodi di investimento e phishing bancario.
“Se da un lato l’AI offre innumerevoli vantaggi, dall’altro alcuni strumenti stanno purtroppo abbassando la soglia per i crimini digitali. Abbiamo osservato come gli attaccanti possano ora dedicare meno tempo e risorse alla creazione di infrastrutture complesse e più al perfezionamento delle tecniche di social engineering (una tecnica di manipolazione psicologica che, sfruttando il fattore umano, debolezze come fiducia, paura o curiosità, inganna le vittime, inducendole a rivelare informazioni sensibili – come password, dati bancari o personali – o ad eseguire azioni che compromettono la sicurezza), sfruttando l’AI per generare contenuti sempre più convincenti”, aggiunge Mancini.
Le nuove campagne di phishing, in grado di sfruttare strumenti di AI per la creazione di siti falsi.
“Le barriere di accesso per i cybercriminali si sono abbassate notevolmente”, aggiunge Ferdinando Mancini.
“Ci troviamo dinanzi ad una vera e propria ‘democratizzazione del crimine informatico‘ che consente ai criminali di agire più velocemente e in modo mirato, complicando il rilevamento delle minacce e richiedendo nuovi modelli di difesa”, mette in guardia Paganini: “Gli attaccanti necessitano di sempre minori conoscenze tecniche e possono focalizzarsi sugli aspetti di social engineering, delegando all’AI la costruzione di infrastrutture fraudolente“.
“La conseguenza più preoccupante è lo spostamento dell’ago della bilancia per i criminali”, mette in evidenza Dario Fadda, “meno tempo dedicato a costruire l’infrastruttura, più tempo e risorse da investire per perfezionare la psicologia dell’attacco, il social engineering. Stanno, in pratica, ottimizzando il loro business model illecito”.
Per proteggersi, occorre essere consapevoli dei rischi. Ma per reagire, “è urgente che i provider di strumenti AI includano controlli interni anti misuse, e che le aziende applichino policy restrittive per l’adozione di tool AI potenzialmente abusabili.
La consapevolezza del pubblico e la formazione diventano leve essenziali: conoscere queste nuove minacce è il primo passo verso una difesa efficace”, conclude Paganini.