Der Gravitee-Bericht 'State of AI Agent Security 2026', basierend auf einer Umfrage unter 900 Führungskräften und technischen Fachleuten in den USA und Großbritannien, dokumentiert, dass 88 % der Organisationen im letzten Jahr bestätigte oder vermutete Sicherheits- oder Datenschutzvorfälle mit KI-Agenten hatten. Im Gesundheitswesen, wo KI-Agenten in klinische Workflows, EHR-Systeme, Diagnoseplattformen, Abrechnungsinfrastrukturen und Lieferketten eingebettet sind, liegt diese Zahl bei 92,7 % – dem höchsten Wert aller untersuchten Sektoren. Der Bericht zeigt, dass große Unternehmen in diesen Ländern insgesamt 3 Millionen KI-Agenten eingesetzt haben, von denen fast die Hälfte – 1,5 Millionen – ohne aktive Überwachung oder Sicherheitskontrollen läuft, was sie für unbefugte Aktionen in Maschinengeschwindigkeit anfällig macht.
Die Ergebnisse zeigen eine grundlegende Identitätskrise, die diesen Vorfällen zugrunde liegt. Laut dem Bericht verlassen sich 45,6 % der Teams auf gemeinsame API-Schlüssel für die Authentifizierung zwischen Agenten – ein grundlegendes Versagen bei der Sicherheit von Zugangsdaten, das MITRE ATT&CK unter T1552 (Unsichere Zugangsdaten) klassifiziert. Nur 21,9 % der technischen Teams behandeln KI-Agenten als unabhängige, identitätsfähige Entitäten mit eigenem Berechtigungsumfang und Verhaltensbasis. Darüber hinaus glauben 82 % der Führungskräfte, dass bestehende Richtlinien sie vor unbefugten Agentenaktionen schützen, während nur 21 % tatsächlich Einblick haben, auf was ihre Agenten zugreifen können, welche Tools sie aufrufen oder welche Daten sie berühren.
Gesundheitsorganisationen stehen vor besonders schwerwiegenden Folgen durch diese Sicherheitslücken. Die Kosten für Datenschutzverletzungen im Gesundheitswesen liegen durchschnittlich bei 9,77 Millionen US-Dollar – dem höchsten Wert aller Branchen im 13. Jahr in Folge – wobei Schatten-KI-Vorfälle durchschnittlich 670.000 US-Dollar pro Vorfall hinzufügen. Der IBM 2026 X-Force Threat Intelligence Index dokumentierte einen Anstieg von 44 % bei Angriffen, die mit der Ausnutzung öffentlich zugänglicher Anwendungen beginnen, größtenteils verursacht durch fehlende Authentifizierungskontrollen. Auf der HIMSS 2026 – der größten Technologiekonferenz im Gesundheitswesen – äußerten Experten Bedenken, dass KI-Agenten von Epic, Google, Microsoft und anderen ohne ausreichende klinische Tests oder Governance-Validierung eingesetzt werden, wie von STAT News berichtet.
Der Gravitee-Bericht dokumentiert, dass aktuelle Sicherheitsrahmenwerke, die für deterministische Software entwickelt wurden, strukturell unfähig sind, autonome Systeme zu regieren, die dynamisch denken, sich anpassen und handeln. Rahmenwerke wie NIST AI RMF und ISO 42001 bieten organisatorische Governance-Strukturen, adressieren jedoch nicht die spezifischen technischen Kontrollen, die für agentenbasierte Bereitstellungen erforderlich sind: Tool-Aufruf-Parameter-Validierung, Echtzeit-Bereichsdurchsetzung, Pre-Execution-Identitätsvertrauensbewertung oder Kill-Chain-Kontextfusion. Laufzeitüberwachung kann beobachten, dass ein Agent etwas tut, was er nicht sollte, kann ihn aber nicht davon abhalten, es zu tun.
VectorCertain LLC behauptet, dass seine SecureAgent-Plattform jede dokumentierte Fehlerklasse blockiert hätte, bevor sie Patientendaten, Datenbanken oder klinische Systeme erreicht. Das Unternehmen gibt an, dass seine vierteilige Pre-Execution-Governance-Pipeline über vier Rahmenwerke validiert wurde: die 278 Cybersicherheits-Diagnoseaussagen des CRI Profile v2.1 (einschließlich HIPAA-gebundener PROTECT- und DETECT-Kontrollen), die 230 Kontrollziele des U.S. Treasury FS AI RMF, die MITRE ATT&CK ER7++ Sprint-Ergebnisse (11.268 Tests, 0 Fehler) und die MITRE ATT&CK ER8 Selbstbewertung (14.208 Versuche, TES 98,2 %). Laut VectorCertain erreicht SecureAgent eine Falsch-Positiv-Rate von 1 zu 160.000 – 53.333-mal niedriger als der Branchendurchschnitt von EDR.
Die Implikationen des Berichts gehen über unmittelbare Sicherheitsbedenken hinaus und berühren grundlegende Fragen zur KI-Governance in kritischer Infrastruktur. Da KI-Agenten nun in Kernkomponenten verteilter Systeme eingebettet sind und als autonome Infrastruktur agieren, die die gleichen Sicherheitserwartungen wie jeder Produktionsdienst erbt, besteht das Hauptrisiko nicht mehr darin, dass ein Agent falsch liegen könnte, sondern dass er zu effizient darin ist, Aktionen auszuführen, die er nie ausführen sollte. Der vollständige Gravitee-Bericht ist verfügbar unter https://www.gravitee.io/state-of-ai-agent-security.

