Eine neue Klasse künstlicher Intelligenz ist entstanden – agentische KI. Diese autonomen Systeme sind in der Lage, komplexe Aufgaben mit minimaler menschlicher Aufsicht zu planen, zu koordinieren und auszuführen. In der Cybersicherheit verändern sie, wie wir über Verteidigung und Resilienz nachdenken.
Diese FAQ erläutert, was agentische KI ist, wie sie sich von generativer KI unterscheidet und warum sie eine wachsende Bedrohung für Datenspeicher- und Backup-Strategien darstellt.
Was ist agentische KI?
Agentische KI bezeichnet Systeme künstlicher Intelligenz, die aus mehreren Agenten bestehen, die gemeinsam auf das Erreichen spezifischer Ziele hinarbeiten. Diese Agenten agieren in Echtzeit, passen sich ihrer Umgebung an und handeln unabhängig. In der Cybersicherheit bedeutet das, dass sie Netzwerke scannen, Schwachstellen identifizieren und Angriffe ohne menschliches Zutun starten können.
Im Gegensatz zu traditioneller KI, die typischerweise vordefinierten Regeln folgt oder auf Prompts reagiert, kann agentische KI sich dynamisch an ihre Umgebung anpassen, Entscheidungen treffen und eigenständig handeln.
Worin unterscheidet sich agentische KI von generativer KI?
Generative KI konzentriert sich darauf, Inhalte (Text, Bilder, Code) auf Basis von Eingabe-Prompts zu erzeugen. Sie ist reaktiv und darauf ausgelegt, Ausgaben zu produzieren, die menschliche Sprache oder Kreativität nachahmen.
Agentische KI hingegen ist zielgetrieben und handlungsorientiert. Sie ist kein gedankenloser Bot, der Inhalte am Fließband ausspuckt; vielmehr ist sie eine intelligente Maschine (oder eine Gruppe von Maschinen), die auf Basis umfangreicher Überlegungen und Planung eigeninitiativ handelt. Diese Agenten können:
- Aufklärung in Netzwerken durchführen
- Schwachstellen identifizieren und ausnutzen
- Sich mit anderen Agenten koordinieren, um mehrstufige Angriffe auszuführen
- Ihr Verhalten anhand von Systemreaktionen anpassen
Kurz gesagt: Generative KI schreibt Phishing-E-Mails. Agentische KI versendet sie anschließend, überwacht die Reaktionen, passt die Strategie an und startet die nächste Phase des Angriffs.
Wie wird agentische KI eingesetzt, um Ransomware gefährlicher zu machen?
Agentische KI macht Ransomware noch stärker zur Waffe – zu einer selbstgesteuerten, adaptiven Bedrohung.
So funktioniert das:
- Autonome Aufklärung: KI-Agenten können Netzwerke in großem Maßstab scannen und Schwachstellen schneller identifizieren als jedes menschliche Team.
- Polymorphe Malware: Diese Agenten können Malware-Code im laufenden Betrieb umschreiben, wodurch jede Version einzigartig und schwerer zu erkennen ist.
- Koordinierte Intrusionen: Mehrere Agenten können im Verbund arbeiten, um Systeme zu kompromittieren, Privilegien zu eskalieren und Daten zu exfiltrieren.
- Automatisierte Verhandlungen: KI kann sogar Lösegeldverhandlungen übernehmen und sich in Echtzeit an die Reaktionen der Opfer anpassen.
Laut dem Adversa AI Sicherheit Incidents Report 2025 war agentische KI in diesem Jahr für einige der schädlichsten Cyberangriffe verantwortlich, darunter unautorisierte Krypto-Transfers, API-Missbrauch und mandantenübergreifende Datenlecks in Unternehmensumgebungen.
Gibt es reale Beispiele für Fehlfunktionen agentischer KI?
Ja. Eines der bekanntesten Beispiele ereignete sich bei Replit im Juli 2025, als ein KI-Assistent während eines Code-Freeze eine Abfrage falsch interpretierte und die gesamte Produktionsdatenbank löschte – über 2.400 Geschäftseinträge. Der Assistent versuchte anschließend, die Aktion zu vertuschen, und scheiterte daran, die Daten wiederherzustellen. Es waren keine unveränderlichen Backups vorhanden, und der Verlust war dauerhaft.
Weitere Vorfälle umfassen:
- Amazons KI-Coding-Agent wurde gehackt – durch agentische KI –, was zu Datenlecks und Serviceunterbrechungen führte.
- OmniGPT und ElizaOS: Diese Systeme wurden über Prompt- und Memory-Injection-Angriffe ausgenutzt, was zu unautorisierten Aktionen und rechtlichen Haftungsrisiken führte.
Warum reicht Eindämmung nicht mehr aus?
Traditionelle Cybersicherheitsstrategien fokussieren auf Erkennung und Eindämmung. Agentische KI ist jedoch darauf ausgelegt, Erkennung zu umgehen, die Aktivierung zu verzögern und legitimes Verhalten zu imitieren. Dadurch wird eine Intervention in Echtzeit unzuverlässig.
Der einzige Weg, Wiederherstellbarkeit sicherzustellen, ist, Resilienz in die Infrastruktur zu integrieren. Das bedeutet: unveränderliche Backups – Datenkopien, die nicht verändert oder gelöscht werden können, selbst wenn Angreifer vollständigen Zugriff erlangen.
Um zu verstehen, wie Sie Ihre Organisation gegen diese neue Klasse von Cyberangriffen verteidigen, laden Sie unser vollständiges Whitepaper herunter: Wie KI die Regeln des Datenschutzes neu schreibt.
