Sempre più phishing con Lovable AI per costruire siti fraudolenti credibili: come proteggersi
人工智能正被越来越多的网络犯罪分子滥用,用于生成虚假网站、恶意软件和钓鱼攻击。这些工具降低了犯罪的技术门槛,使得即使是技术有限的人也能快速创建可信的数字陷阱。专家警告称,这种“犯罪民主化”正在使网络攻击更加普遍、复杂和难以防御,并呼吁加强公众意识和技术控制以应对这一威胁。 2025-10-17 09:46:24 Author: www.cybersecurity360.it(查看原文) 阅读量:31 收藏

L’AI riduce le barriere per i cyber criminali che stanno sfruttando sempre più strumenti di intelligenza artificiale per sferrare nuove campagne di phishing.

Ma, secondo Dario Fadda, esperto di cyber sicurezza e collaboratore di Cybersecurity360, “non stiamo più parlando solo di cyber criminali esperti in coding, ma di un potenziale esercito di malintenzionati che, con una semplice descrizione in linguaggio naturale, possono allestire in pochi minuti una trappola digitale credibile. È come se avessero dato una chiave master a chiunque sappia aprire un lucchetto”.

Il motivo è semplice. “La capacità con cui l’intelligenza artificiale generativa produce contenuti sta abbassando drasticamente la soglia d’ingresso per i cyber criminali”, commenta Pierluigi Paganini, analista di cyber security e Ceo Cybhorus.

Ecco come mitigare il rischio della democratizzazione dell’AI.

Le nuove campagne di phishing con i tool AI

È cruciale che le persone siano consapevoli di questa nuova minaccia. La sensibilizzazione è la prima arma di difesa.

“Continueremo a monitorare attentamente l’evoluzione di queste tecniche e a fornire le informazioni necessarie per proteggere individui e aziende”, avverte Ferdinando Mancini, Director, Southern Europe & Israel Sales Engineering di Proofpoint.

L’intelligenza artificiale è sempre più accessibile anche ai cyber criminali, sempre più abili a sfruttare tool AI per realizzare con semplicità inaudit e grande velocità siti web fasulli, utili per sferrare campagne di phishing e distribuire malware.

“L’intelligenza artificiale come elemento abilitante del cyber crimine che riesce a renderlo più accessibile, automatizzato e su larga scala“, secondo Pierluigi Paganini.

L’abuso di piattaforme di AI generativa emerge come crescente minaccia, che ha scoperto nuove preoccupanti frontiere per gli attori malevoli.

“Oggi anche chi ha scarse competenze tecniche può creare campagne di phishing estremamente efficienti, malware personalizzati e attacchi mirati sfruttando modelli generativi e strumenti AI open-source”, spiega Paganini: “Gli esperti constatano che campagne di phishing basate su AI-site generators diventano sempre più frequenti e sofisticate”.

Il caso Lovable AI

I ricercatori di Proofpoint, in particolare, sono riusciti a identificare e monitorare l’uso sempre più diffuso di un’applicazione di creazione di siti web basata sull’ intelligenza artificiale, Lovable AI, da parte di cyber criminali.

“Strumenti come Lovable AI, nati con intenti legittimi, stanno diventando le ‘fabbriche di falsi’ del digitale“, spiega Dario Fadda: “Il vero pericolo, a mio avviso, non è solo la rapidità di creazione, ma la qualità del prodotto finale. Questi siti fraudolenti sono esteticamente impeccabili e funzionalmente persuasivi, il che erode il principale meccanismo di difesa dell’utente medio: l’istinto di diffidenza verso ciò che appare ‘sospetto’ o male impostato”.

Lovable AI è una piattaforma, progettata per facilitare la progettazione anche a chi ha conoscenze limitate di web design, che ora attori malevoli sfruttano per generare pagine di phishing credibili, in grado di imitare brand e trarre in inganno gli utenti.

Le campagne osservate usano questi siti per campagne ad ampio spettro: phishing di credenziali (anche MFA), per raccogliere informazioni personali e finanziarie (carte di credito, drainer di wallet crypto) e distribuire malware.

I dettagli

Tra le campagne più significative, quelle dedite alla distribuzione di kit di phishing Tycoon, fingendosi come condivisione di file o comunicazioni HR.

“Proofpoint ha identificato l’uso sempre più esteso di piattaforme come Lovable AI, uno strumento pensato per creare siti web con semplicità, ora abusato per montare pagine di phishing credibili che simulano marchi noti (come riportato nei report Proofpoint)”, spiega Paganini: “Le campagne attive includono phishing di credenziali (anche con MFA), raccolta di dati finanziari, wallet crypto e distribuzione di malware. Preoccupante la scoperta di Proofpoint di centinaia di migliaia di URL creati con Lovable AI ogni mese da febbraio 2025, con campagne che usano kit di phishing Tycoon mascherati come file sharing o comunicazioni HR”.

Questi tool non si limitano alle email, ma si estendono anche a comunicazioni via Sms, come frodi di investimento e phishing bancario.

“Se da un lato l’AI offre innumerevoli vantaggi, dall’altro alcuni strumenti stanno purtroppo abbassando la soglia per i crimini digitali. Abbiamo osservato come gli attaccanti possano ora dedicare meno tempo e risorse alla creazione di infrastrutture complesse e più al perfezionamento delle tecniche di social engineering (una tecnica di manipolazione psicologica che, sfruttando il fattore umano, debolezze come fiducia, paura o curiosità, inganna le vittime, inducendole a rivelare informazioni sensibili – come password, dati bancari o personali – o ad eseguire azioni che compromettono la sicurezza), sfruttando l’AI per generare contenuti sempre più convincenti”, aggiunge Mancini.

La democratizzazione dell’AI riduce le barriere per i cyber criminali

Le nuove campagne di phishing, in grado di sfruttare strumenti di AI per la creazione di siti falsi.

“Le barriere di accesso per i cybercriminali si sono abbassate notevolmente”, aggiunge Ferdinando Mancini.

“Ci troviamo dinanzi ad una vera e propria ‘democratizzazione del crimine informatico‘ che consente ai criminali di agire più velocemente e in modo mirato, complicando il rilevamento delle minacce e richiedendo nuovi modelli di difesa”, mette in guardia Paganini: “Gli attaccanti necessitano di sempre minori conoscenze tecniche e possono focalizzarsi sugli aspetti di social engineering, delegando all’AI la costruzione di infrastrutture fraudolente“.

“La conseguenza più preoccupante è lo spostamento dell’ago della bilancia per i criminali”, mette in evidenza Dario Fadda, “meno tempo dedicato a costruire l’infrastruttura, più tempo e risorse da investire per perfezionare la psicologia dell’attacco, il social engineering. Stanno, in pratica, ottimizzando il loro business model illecito”.

Come mitigare il rischio

Per proteggersi, occorre essere consapevoli dei rischi. Ma per reagire, “è urgente che i provider di strumenti AI includano controlli interni anti misuse, e che le aziende applichino policy restrittive per l’adozione di tool AI potenzialmente abusabili.

La consapevolezza del pubblico e la formazione diventano leve essenziali: conoscere queste nuove minacce è il primo passo verso una difesa efficace”, conclude Paganini.


文章来源: https://www.cybersecurity360.it/news/democratizzazione-ai-lovable-ai-campagne-phishing/
如有侵权请联系:admin#unsafe.sh