GenAI Security: Wenn die KI zum Angriffsziel wird

Jede neue Technologie bringt neue Sicherheitsrisiken. Das war bei der Cloud so, bei Mobile, bei IoT. Und es ist bei Generativer KI nicht anders. Nur dass diesmal alles schneller und fundamentaler vor sich geht. Viel schneller.
2026 ist das Jahr, in dem GenAI-Security vom theoretischen Problem zum operativen Thema wird. 97% der Organisationen berichten von GenAI-bezogenen Sicherheitsvorfällen, so eine aktuelle Studie von Viking Cloud. Die OWASP hat gerade ihre Top 10 für Agentic AI Applications veröffentlicht. Und der World Economic Forum schlägt Alarm wegen AI-getriebener Bedrohungen.

Was passiert denn hier – und was bedeutet das für uns Security-Verantwortliche?

Generative KI führt Angriffsvektoren ein, die es vorher schlicht und einfach nicht gab. Das ist keine Übertreibung. Wenn du einen LLM (Large Language Model) in deiner Organisation einsetzt, hast du eine neue Klasse von Schwachstellen.
Prompt Injection ist das SQL Injection unserer Zeit. Der Angreifer manipuliert die Eingaben an ein KI-System so, dass es Dinge tut, die es nicht tun sollte und um Daten preiszugeben, Sicherheitsanweisungen zu ignorieren, oder schädliche Aktionen auszuführen. Der Unterschied zu klassischen Injection-Angriffen: Die Grenze zwischen Daten und Befehlen ist bei LLMs fundamental unscharf.
Direkte Prompt Injection ist noch vergleichsweise einfach: Der Angreifer interagiert direkt mit dem System und versucht, es zu manipulieren. Indirekte Prompt Injection ist aber viel tückischer: Der Angriff kommt über Daten, die das System verarbeitet, z.B. einer E-Mail, ein Dokument, eine Webseite. Wenn dein KI-Assistent eine manipulierte E-Mail zusammenfasst, könnte diese E-Mail aber Anweisungen enthalten, die der Assistent dann auch befolgt.
Bei Google Gemini wurde kürzlich eine solche indirekte Prompt Injection-Schwachstelle nachgewiesen, die unbefugten Zugriff auf private Kalenderdaten ermöglichte. Dies wurde über manipulierte Meeting-Einladungen erreicht. Das ist also keine theoretische Bedrohung mehr.

Interessanterweise hat sich die größte Sorge der Security-Verantwortlichen verschoben. Laut dem WEF Global Cybersecurity Outlook 2026 stellen Datenleaks im Zusammenhang mit GenAI (34%) nun die Hauptsorge dar. Knapp vor der Weiterentwicklung gegnerischer Fähigkeiten durch KI (29%).
Das ist eine bemerkenswerte Umkehrung der Situation. Noch im Jahr 2025 lag die Sorge vor KI-gestützten Angriffen sehr deutlich vorne. Was ist da passiert?
Die Realität hat uns eingeholt. Organisationen setzen GenAI ein, und das oft schneller, als deren Security-Teams nachkommen. Sie bemerken dann, was dabei alles schiefgehen kann. Z.B. gibt ein Mitarbeiter vertrauliche Kundendaten in ChatGPT ein, ein interner Chatbot wird versehentlich mit sensiblen Dokumenten trainiert oder ein KI-Agent hat plötzlich Zugriff auf Systeme, die er eigentlich nicht haben sollte.
Die Zahlen sind wirklich erschreckend: In einer dreimonatigen Analyse stellte sich heraus, dass 90% der Organisationen riskante KI-Prompts erlebten. Einer von 30 GenAI-Prompts, die aus Unternehmensnetzwerken abgesetzt werden, birgt ein signifikantes Risiko für Datenlecks. Organisationen nutzen durchschnittlich 10 verschiedene GenAI-Tools pro Monat. Dabei sind viele davon ungemanaged und außerhalb formaler Governance-Strukturen.

Shadow AI ist das neue Shadow IT. Und es ist mindestens genauso gefährlich.

Wenn dir GenAI-Security schon Sorgen macht, dann warte auf Agentic AI.
Agentische KI-Systeme sind solche, die autonom handeln können. Sie lesen nicht nur Anfragen und geben Antworten sondern sie führen auch direkt Aktionen aus. Sie buchen Termine, senden E-Mails, führen Code aus, interagieren mit APIs. Die Produktivitätsversprechen sind enorm. Die Sicherheitsimplikationen allerdings auch.
Die OWASP hat darauf reagiert und die „Top 10 Risks and Mitigations for Agentic AI 2026″ veröffentlicht. Die Highlights sind aufschlussreich.

Agent Behavior Hijacking: Angreifer manipulieren das Verhalten eines Agenten, so, dass er im Interesse des Angreifers handelt allerdings mit den jeweiligen Rechten und dem selben Zugang, die dem Agenten vom Benutzer gewährt wurden.

Tool Misuse and Exploitation: Agenten haben typischerweise Zugriff auf verschiedene Tools und APIs. Wenn ein Angreifer den Agenten kontrolliert, kontrolliert er auch diese Tools.

Identity and Privilege Abuse: Agentische Identitäten werden laut Prognosen menschliche Identitäten um das 100-fache übersteigen. Jeder Agent braucht Credentials, Zugriffe, Berechtigungen. Wer managt das alles?

Die zentrale Warnung ist klar: Organisationen sind bereits Agentic-AI-Angriffen ausgesetzt und dass oft auch ohne zu wissen, dass in ihren Umgebungen überhaupt Agenten laufen.

Im November 2025 machte Anthropic eine beunruhigende Enthüllung. Ihr Unternehmen hatte einen Cyber-Spionage-Angriff dokumentiert, bei dem KI über den gesamten Angriffszyklus eingesetzt wurde – von der Aufklärung über die Exploitation bis zur Datenexfiltration.
Das war nicht mehr nur ein theoretisches Szenario. Das war ein realer Angriff, der zu 80-90% autonom von KI-Agenten durchgeführt wurde. Mit minimalem menschlichem Eingriff. Die Ziele waren hochwertig, darunter große Technologieunternehmen und Regierungsbehörden.
Dies markiert einen Wendepunkt. Die Frage ist nicht mehr, ob KI für Angriffe eingesetzt wird, sondern wie schnell die Automatisierung voranschreitet. Wenn Angreifer KI nutzen können, um in Maschinengeschwindigkeit zu operieren, müssen Verteidiger nachziehen – oder sie gehen unter.

Die Bedrohungslandschaft ist klar. Was sind die Antworten?

Zunächst: Wissen, was läuft. Wie viele GenAI-Tools werden in deiner Organisation genutzt? Welche davon sind genehmigt, welche sind Shadow AI? Welche Daten fließen in diese Tools? Diese Visibility ist die Grundlage für alles Weitere.

Dann: Klassifizierung und Kontrolle. Nicht jede KI-Nutzung ist gleich riskant. Ein Chatbot, der öffentliche Informationen zusammenfasst, ist anders zu bewerten als ein Agent mit Zugriff auf interne Systeme. Risikobewertung nach Anwendungsfall ist der Schlüssel.

Weiters: Prompt-Hygiene. Ja, das ist ein Begriff, der 2020 noch nicht existierte. Aber 2026 ist es Realität: Prompts müssen wie Datentransfers behandelt werden, nicht wie harmlose Texteingaben. Was in einen Prompt geht, kann beim Anbieter landen, für Training verwendet werden, bei einem Breach auch exponiert werden.

Für Agentic AI: Human-in-the-Loop. Die verlockendste Eigenschaft von Agenten ist ihre Autonomie und ist aber auch ihre gefährlichste. Kritische Aktionen sollten menschliche Bestätigung erfordern. Berechtigungen sollten nach dem Prinzip der minimalen Rechte vergeben werden. Monitoring muss kontinuierlich stattfinden.

Und generell: Behandle KI-Security nicht als Add-on. Es ist keine separate Disziplin, die du an ein spezialisiertes Team delegieren kannst. KI-Risiken durchziehen alle Bereiche: Von Identity über Datenschutz bis hin zur Supply Chain. Die Integration in bestehende Security-Frameworks ist der entscheidende Punkt.

Es ist kein Zufall, dass die Regulierung aufholen muss. Der EU AI Act tritt im August 2026 in Kraft, mit Strafen von bis zu 35 Millionen Eur oder 7% des weltweiten Umsatzes. Da ist kein Spielraum mehr, das ist existenzielles Risiko.
NIST hat sein AI Risk Management Framework veröffentlicht. OWASP arbeitet kontinuierlich an Standards und Best Practices. Die Erwartungshaltung steigt und mit ihr die Haftung.
Wer jetzt keine GenAI-Governance etabliert, wird in zwei Jahren Compliance-Probleme haben. Das ist vorhersehbar, und es ist vermeidbar.

Die Ironie ist offensichtlich: Die gleiche Technologie, die neue Bedrohungen schafft, könnte Teil der Lösung sein.
KI-gestützte Threat Detection, automatisierte Anomalie-Erkennung, intelligente Korrelation von Sicherheitsereignissen. Das alles sind reale Anwendungen welche Security-Teams helfen können, mit der Flut von Daten und Alerts umzugehen.
Der WEF-Bericht betont: Organisationen brauchen KI, um mit KI Schritt zu halten. Die Geschwindigkeit, mit der KI-gestützte Angriffe operieren, übersteigt das, was menschliche Analysten allein zu bewältigen in der Lage sind. Es geht nicht darum, Menschen zu ersetzen, sondern sie zu befähigen, erfolgreich zu sein.
Das ist ein Wettrüsten, das gerade erst begonnen hat. Die Frage ist allerdings, auf welcher Seite du stehst? Auf der Seite derer, die KI verstehen und kontrollieren, oder auf der Seite derer, die von ihr überrollt werden.

GenAI hat die Honeymoon-Phase hinter sich. Die Zeit, in der man diese Technologie begeistert adoptieren konnte, ohne über die Konsequenzen nachzudenken, ist vorbei.
2026 ist das Jahr, in dem GenAI-Security zu einem ernsten Thema wird. Nicht als Randthema, nicht als Spezialisten-Nische, sondern als zentrale Herausforderung für jede Organisation, die KI einsetzt. Also für praktisch Jeden.
Die Bedrohungen sind real. Die Angriffsfläche wächst. Die Regulierung zieht an. Wer jetzt nicht handelt, wird später teuer dafür bezahlen müssen.

Die gute Nachricht: Die Frameworks existieren bereits, die Best Practices werden dokumentiert, neue Tools entstehen fortlaufend. Was fehlt ist alleine die korrekte Umsetzung. Und das ist, wie immer in der Security, die eigentliche Herausforderung.

Quellen:
Adversa AI: „Top GenAI security resources — February 2026″
OWASP GenAI Security Project: „Top 10 Risks and Mitigations for Agentic AI Security“
World Economic Forum: „Global Cybersecurity Outlook 2026″
Vectra AI: „GenAI security: How to protect LLMs from AI-powered attacks“
Check Point Research: „The trends reshaping cybersecurity – Cyber Security Report 2026″