MISCELLANEA /

In crescita le minacce guidate dall'IA

In crescita le minacce guidate dall'IA

04 Gennaio 2026 Carlo Mazzucchelli
Carlo Mazzucchelli
Carlo Mazzucchelli
share
La corsa agli armamenti dell'IA è iniziata e l'aumento della fuga di dati GenAI mostra quanto rapidamente l'automazione stia ridefinendo il rischio per le aziende di tutto il mondo. Guardando al futuro, l'evoluzione dell'IA non solo accelererà, ma ridefinirà radicalmente il modo in cui le organizzazioni proteggono il proprio futuro digitale. Lo scenario di Check Point.

A differenza delle minacce tradizionali, gli attacchi generati dalle macchine, infatti, imparano e si adattano continuamente. Ogni exploit fallito diventa un dato di addestramento, creando un ecosistema di minacce in grado di auto-migliorarsi che evolve più rapidamente delle difese co

La profonda integrazione tra l'intelligenza artificiale e l'IA generativa nelle moderne operazioni aziendali, sta trasformando il panorama delle minacce informatiche. Gli attaccanti non si affidano più esclusivamente agli strumenti tradizionali, ma stanno integrando l'IA nelle loro tattiche, tecniche e procedure per lanciare campagne più scalabili, adattive e sofisticate.

Dall'ecosistema dell’IA stanno emergendo, ad avviso di Pierluigi Torriani, Security Engineering Manager per Check Point Software Technologie,  quattro tipologie di minacce da tenere in considerazione:

  1. Attacchi autonomi basati sull'IA: campagne di minacce guidate da macchine

I criminali informatici stanno sperimentando sempre più spesso attacchi autonomi basati sull'IA, in cui agenti automatici pianificano, coordinano ed eseguono in modo indipendente campagne in più fasi. Questi sistemi di IA condividono informazioni, si adattano in tempo reale alle misure difensive e collaborano su migliaia di endpoint, funzionando come botnet ad autoapprendimento senza supervisione umana.

Esempi recenti, come i prototipi ReaperAI, mostrano come l'intelligenza artificiale autonoma possa concatenare ricognizione, sfruttamento ed esfiltrazione dei dati in un'operazione senza soluzione di continuità.

  1. Fabbricazione di malware adattivo:

Nel 2024, diversi forum clandestini hanno iniziato a promuovere i “generatori di malware AI” in grado di scrivere, testare e debuggare automaticamente codice malevolo. Questi strumenti utilizzano loop di feedback per apprendere quali varianti aggirano il rilevamento, trasformando ogni tentativo fallito in carburante per il prossimo successo.

L'uso di malware polimorfico generato dall'intelligenza artificiale sta ridefinendo il modo in cui gli attaccanti creano e distribuiscono software malevolo. Mentre il malware tradizionale si basava su piccole modifiche al codice per eludere il rilevamento, i moderni modelli generativi, dal GPT-4o agli LLM open source, sono ora in grado di produrre varianti di malware uniche e funzionali in pochi secondi.

  1. Ingegneria sociale basate sull'IA

La minaccia interna si sta evolvendo rapidamente con l'aumento delle identità sintetiche e dei personaggi generati dall'intelligenza artificiale. Costruiti a partire da dati rubati ai dipendenti, campioni vocali e messaggi interni, questi agenti di intelligenza artificiale possono imitare in modo convincente gli utenti reali, inviando e-mail dall'aspetto autentico, partecipando a videochiamate con voci deepfake e infiltrandosi nelle piattaforme di collaborazione con modelli linguistici e comportamentali precisi.

  1. Catena di approvvigionamento dell'IA e avvelenamento dei modelli

La rapida adozione di modelli di IA di terze parti e open source ha creato una nuova vasta superficie di attacco: la catena di approvvigionamento dell'IA. Nel 2025, diversi laboratori di ricerca hanno mostrato attacchi di avvelenamento dei dati in cui l'alterazione di solo lo 0,1% dei dati di addestramento di un modello poteva causare una classificazione errata mirata, ad esempio istruendo un sistema di visione IA a identificare erroneamente un segnale di stop come un segnale di limite di velocità. Nel contesto della sicurezza informatica, ciò potrebbe significare che un modello di rilevamento delle intrusioni classifichi erroneamente un payload dannoso come benigno.

La diversità delle  minacce AI

Gli attacchi informatici basati sull'intelligenza artificiale si distinguono perché combinano velocità, autonomia e intelligenza su una scala che gli aggressori umani non possono eguagliare.

A differenza delle minacce tradizionali, gli attacchi generati dalle macchine imparano e si adattano continuamente. Ogni exploit fallito diventa un dato di addestramento, creando un ecosistema di minacce in grado di auto-migliorarsi che evolve più rapidamente delle difese convenzionali. Check Point Research osserva che strumenti basati sull'intelligenza artificiale come il framework Hexstrike-AI, originariamente creato per i test del red team, sono stati trasformati in armi in poche ore per sfruttare gli zero-day di Citrix NetScaler. Questi attacchi operano anche con una precisione senza precedenti.

Cosa aspettarsi?

I rischi associati alle minacce guidate dall'IA sono reali, ma ciò non significa che le aziende debbano abbandonare il vibe coding, lo sviluppo assistito dall'IA o gli strumenti di IA generativa. Proprio come agli albori della migrazione al cloud o del passaggio al lavoro ibrido, la sfida ora è imparare ad adottare l'IA in modo sicuro senza creare nuove vulnerabilità.

Per ridurre i rischi e costruire una resilienza a lungo termine, le organizzazioni dovrebbero concentrarsi su queste cinque strategie fondamentali:

  1. Scegliere strumenti di IA attenti alla sicurezza e guidarli con saggezza
  2. Implementare il modello Zero Trust per l'IA
  3. Automatizzare e integrare la sicurezza in tutto il ciclo di vita dello sviluppo
  4. Governare l'utilizzo della GenAI a livello aziendale

 

Le conclusioni

Il futuro della sicurezza informatica apparterrà a coloro che adotteranno questa mentalità incentrata sulla piattaforma, consolidando la visibilità e il controllo su tutto il patrimonio digitale e incorporando i principi Zero Trust e Secure-by-Design in ogni livello, trasformando l'IA da un rischio a un vantaggio decisivo.

Le organizzazioni dovrebbero concentrarsi sull'aumento della consapevolezza sia dei vantaggi che dei rischi dell'IA, preparando il proprio personale e le proprie infrastrutture a un mondo in cui la prevenzione, l'automazione e l'intelligenza sono le uniche strategie sostenibili. Chi agisce ora trasformerà l'IA da un rischio a un vantaggio decisivo e costruirà una vera resilienza digitale per il prossimo decennio.

 

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database