Eine neue Klasse künstlicher Intelligenz ist entstanden – agentische KI. Diese autonomen Systeme sind in der Lage, komplexe Aufgaben mit minimaler menschlicher Aufsicht zu planen, zu koordinieren und auszuführen. In der Cybersicherheit verändern sie, wie wir über Verteidigung und Resilienz nachdenken.
Diese FAQ erläutert, was agentische KI ist, wie sie sich von generativer KI unterscheidet und warum sie eine wachsende Bedrohung für Datenspeicher- und Backup-Strategien darstellt.
Was ist agentische KI?
Agentische KI bezeichnet KI-Systeme, die aus mehreren Agenten bestehen, die gemeinsam auf das Erreichen spezifischer Ziele hinarbeiten. Diese Agenten agieren in Echtzeit, passen sich ihrer Umgebung an und handeln eigenständig. In der Cybersicherheit bedeutet das, dass sie Netzwerke scannen, Schwachstellen identifizieren und Angriffe ohne menschlichen Input starten können.
Im Gegensatz zu traditioneller KI, die typischerweise vordefinierten Regeln folgt oder auf Prompts reagiert, kann agentische KI sich dynamisch an ihre Umgebung anpassen, Entscheidungen treffen und unabhängig handeln. In der Cybersicherheit bedeutet das, dass agentische KI Netzwerke scannen, Schwachstellen identifizieren und Angriffe ohne menschliches Eingreifen starten kann.
Worin unterscheidet sich agentische KI von generativer KI?
Generative KI konzentriert sich darauf, Inhalte (Text, Bilder, Code) auf Basis von Eingabe-Prompts zu erzeugen. Sie ist reaktiv und darauf ausgelegt, Ausgaben zu produzieren, die menschliche Sprache oder Kreativität nachahmen.
Agentische KI hingegen ist zielgetrieben und handlungsorientiert. Sie ist kein gedankenloser Bot, der Inhalte am Fließband produziert; vielmehr ist sie eine intelligente Maschine (oder eine Gruppe von Maschinen), die auf Basis umfangreicher Überlegungen und Planung Eigeninitiative ergreift. Diese Agenten können:
- Aufklärung in Netzwerken durchführen
- Schwachstellen identifizieren und ausnutzen
- Sich mit anderen Agenten koordinieren, um mehrstufige Angriffe auszuführen
- Ihr Verhalten anhand von Systemreaktionen anpassen
Kurz gesagt: Generative KI schreibt Phishing-E-Mails. Agentische KI versendet sie dann, überwacht die Reaktionen, passt die Strategie an und startet die nächste Phase des Angriffs.
Wie wird agentische KI eingesetzt, um Ransomware gefährlicher zu machen?
Agentische KI macht Ransomware noch stärker zur Waffe – zu einer selbstgesteuerten, adaptiven Bedrohung.
So funktioniert das:
- Autonome Aufklärung: KI-Agenten können Netzwerke in großem Maßstab scannen und Schwachstellen schneller identifizieren als jedes menschliche Team.
- Polymorphe Malware: Diese Agenten können Malware-Code im laufenden Betrieb umschreiben, wodurch jede Version einzigartig und schwerer zu erkennen ist.
- Koordinierte Intrusionen: Mehrere Agenten können im Verbund arbeiten, um Systeme zu kompromittieren, Berechtigungen zu eskalieren und Daten zu exfiltrieren.
- Automatisierte Verhandlungen: KI kann sogar Lösegeldverhandlungen führen und sich in Echtzeit an die Reaktionen der Opfer anpassen.
Laut dem Adversa AI Sicherheit Incidents Report 2025 war agentische KI in diesem Jahr für einige der schädlichsten Cyberangriffe verantwortlich, darunter unautorisierte Krypto-Transfers, API-Missbrauch und mandantenübergreifende Datenlecks in Unternehmensumgebungen.
Gibt es reale Beispiele für Fehlverhalten agentischer KI?
Ja. Eines der bekanntesten Beispiele ereignete sich im Juli 2025 bei Replit, als ein KI-Assistent während eines Code-Freeze eine Abfrage falsch interpretierte und die gesamte Produktionsdatenbank löschte – über 2.400 Geschäftseinträge. Der Assistent versuchte anschließend, die Aktion zu vertuschen, und scheiterte daran, die Daten wiederherzustellen. Es waren keine unveränderlichen Backups vorhanden, und der Verlust war dauerhaft.
Weitere Vorfälle sind:
- Amazons KI-Coding-Agent wurde gehackt – durch agentische KI – was zu Datenlecks und Serviceunterbrechungen führte.
- OmniGPT und ElizaOS: Diese Systeme wurden über Prompt- und Memory-Injection-Angriffe ausgenutzt, was zu unautorisierten Aktionen und rechtlichen Haftungsrisiken führte.
Warum reicht Eindämmung nicht mehr aus?
Traditionelle Cybersicherheitsstrategien fokussieren auf Erkennung und Eindämmung. Agentische KI ist jedoch darauf ausgelegt, Erkennung zu umgehen, die Aktivierung zu verzögern und legitimes Verhalten zu imitieren. Dadurch ist ein Eingreifen in Echtzeit unzuverlässig.
Der einzige Weg, Wiederherstellung sicherzustellen, besteht darin, Resilienz in die Infrastruktur zu integrieren. Das bedeutet, unveränderliche Backups vorzuhalten – Datenkopien, die nicht verändert oder gelöscht werden können, selbst wenn Angreifer vollständigen Zugriff erlangen.
Um zu verstehen, wie Sie Ihre Organisation gegen diese neue Klasse von Cyberangriffen verteidigen, laden Sie unser vollständiges Whitepaper herunter: Wie KI die Regeln des Datenschutzes neu schreibt.
