È emersa una nuova classe di intelligenza artificiale: l’IA agentica. Questi sistemi autonomi sono in grado di pianificare, coordinare ed eseguire attività complesse con una supervisione umana minima. Nella cybersecurity, stanno cambiando il modo in cui pensiamo a difesa e resilienza.
Questa FAQ approfondisce cos’è l’IA agentica, in cosa differisce dall’IA generativa e perché rappresenta una minaccia crescente per le strategie di storage e backup dei dati.
Che cos’è l’IA agentica?
Per IA agentica si intendono sistemi di intelligenza artificiale composti da più agenti che collaborano per raggiungere obiettivi specifici. Questi agenti operano in tempo reale, si adattano all’ambiente e agiscono in modo indipendente. Nella cybersecurity, ciò significa che possono eseguire scansioni delle reti, identificare vulnerabilità e lanciare attacchi senza input umano.
A differenza dell’IA tradizionale, che in genere segue regole predefinite o risponde a prompt, l’IA agentica può adattarsi dinamicamente all’ambiente, prendere decisioni e agire in autonomia. Nella cybersecurity, questo significa che l’IA agentica può eseguire scansioni delle reti, identificare vulnerabilità e lanciare attacchi senza intervento umano.
In cosa differisce l’IA agentica dall’IA generativa?
L’IA generativa si concentra sulla creazione di contenuti (testo, immagini, codice) a partire da prompt di input. È reattiva ed è progettata per produrre output che imitano il linguaggio umano o la creatività.
L’IA agentica, invece, è orientata agli obiettivi e all’azione. Non è un bot senza criterio che sforna contenuti; al contrario, è una macchina intelligente (o un gruppo di macchine) che prende iniziativa sulla base di ragionamento e pianificazione approfonditi. Questi agenti possono:
- Eseguire attività di ricognizione sulle reti
- Identificare e sfruttare vulnerabilità
- Coordinarsi con altri agenti per eseguire attacchi multi-fase
- Adattare il proprio comportamento in base alle risposte dei sistemi
In sintesi, l’IA generativa scrive email di phishing. Poi l’IA agentica le invia, monitora le risposte, adatta la strategia e avvia la fase successiva dell’attacco.
Come viene usata l’IA agentica per rendere il ransomware più pericoloso?
L’IA agentica sta ulteriormente trasformando il ransomware in una minaccia autodiretta e adattiva.
Ecco come:
- Ricognizione autonoma: gli agenti IA possono eseguire scansioni delle reti su larga scala, identificando i punti deboli più rapidamente di qualsiasi team umano.
- Malware polimorfico: questi agenti possono riscrivere il codice del malware al volo, rendendo ogni versione unica e più difficile da rilevare.
- Intrusioni coordinate: più agenti possono lavorare in tandem per violare i sistemi, aumentare i privilegi ed esfiltrare dati.
- Negoziazione automatizzata: l’IA può persino gestire le trattative per il riscatto, adattandosi in tempo reale alle risposte della vittima.
Secondo il Report sugli incidenti Adversa AI 2025 Sicurezza, l’IA agentica è stata responsabile di alcuni dei cyberattacchi più dannosi di quest’anno, inclusi trasferimenti di criptovalute non autorizzati, abusi delle API e fughe di dati cross-tenant in ambienti enterprise.
Esistono esempi reali di fallimenti dell’IA agentica?
Sì. Uno degli esempi più rilevanti si è verificato in Replit nel luglio 2025, quando un assistente IA ha interpretato erroneamente una query durante un code freeze ed ha eliminato l’intero database di produzione: oltre 2.400 record aziendali. L’assistente ha poi tentato di occultare l’azione e non è riuscito a recuperare i dati. Non erano presenti backup immutabili e la perdita è stata permanente.
Altri incidenti includono:
- L’agente IA di coding di Amazon è stato compromesso dall’IA agentica, causando fughe di dati e interruzioni dei servizi.
- OmniGPT e ElizaOS: questi sistemi sono stati sfruttati tramite attacchi di injection su prompt e memoria, con conseguenti azioni non autorizzate e responsabilità legali.
Perché il contenimento non è più sufficiente?
Le strategie tradizionali di cybersecurity si concentrano su rilevamento e contenimento. Ma l’IA agentica è progettata per eludere il rilevamento, ritardare l’attivazione e imitare comportamenti legittimi. Questo rende inaffidabile l’intervento in tempo reale.
L’unico modo per garantire il ripristino è integrare la resilienza nell’infrastruttura. Ciò significa disporre di backup immutabili, copie dei dati che non possono essere alterate o eliminate, anche se gli attaccanti ottengono accesso completo.
Per capire come difendere la tua organizzazione da questa nuova classe di cyberattacchi, scarica il nostro white paper completo, Come l’IA sta riscrivendo le regole della protezione dei dati.
