Wegweisende Studie bestätigt VectorCertains Ansatz zur KI-Agenten-Governance

Found this article helpful?

Share it with your network and spread the knowledge!

Wegweisende Studie bestätigt VectorCertains Ansatz zur KI-Agenten-Governance

Eine im März 2026 von 38 Forschern aus sieben führenden Institutionen veröffentlichte Studie liefert empirische Bestätigung für ein kritisches Prinzip der künstlichen Intelligenz-Governance: KI-Agenten können sich nicht allein durch interne Sicherheitsvorkehrungen selbst regulieren. Die unter dem Titel „Agents of Chaos“ veröffentlichte und unter https://arxiv.org/abs/2602.20021 verfügbare Forschung setzte sechs aktive KI-Agenten mit echten Werkzeugen und Zugriffen ein und zeigte, dass alle modellinternen Abwehrmechanismen gegen konversationelle Manipulationstechniken versagten.

Die Studie identifizierte drei strukturelle Mängel in aktuellen KI-Agenten-Architekturen: Agenten verfügen über kein zuverlässiges Stakeholder-Modell, um autorisierte Anweisungen von Manipulation zu unterscheiden; ihnen fehlt die Selbstwahrnehmung, um Kompetenzüberschreitungen oder irreversible Handlungen zu erkennen; und sie haben kein Bewusstsein für ihr Publikum, was zu unbeabsichtigter Datenoffenlegung führt. Diese Mängel erklären, warum Agenten in der Studie sensible Informationen preisgaben, Systeme zerstörten und gefälschten Anweisungen folgten, obwohl sie von Sprachengroßmodellen wie Claude Opus 4.6 und Kimi K2.5 unterstützt wurden.

VectorCertain LLC hatte bereits Lösungen für genau diese Probleme durch seine Vier-Tore-Hub-and-Spoke-Governance-Architektur entwickelt. Die SecureAgent-Plattform des Unternehmens bewertet jede Agentenaktion über extern betriebene Tore vor der Ausführung und behebt die Mängel durch mathematisch erzwungene Kontrollen, die unabhängig von den Agentenmodellen arbeiten. Dieser architektonische Ansatz stimmt mit dem Schluss der Forscher überein, dass „wirksame Eindämmung Kontrollen erfordert, die unabhängig vom Modell arbeiten“.

Die Implikationen dieser Forschung sind angesichts der aktuellen Marktdynamik bedeutsam. Laut einer in der Studie zitierten Branchenanalyse erreichte der KI-Agenten-Markt 2025 7,6 Milliarden US-Dollar mit einem prognostizierten jährlichen Wachstum von fast 50 Prozent, während bereits über 160.000 Organisationen eigene autonome Agenten betreiben. Eine separate Analyse von Kiteworks ergab, dass 63 % der Organisationen keine Zweckbindung für ihre KI-Agenten durchsetzen können und 60 % fehlverhaltende Agenten nicht schnell beenden können – was der Bericht als kritische Governance-Lücke beschreibt. Die vollständige Kiteworks-Analyse ist unter https://www.kiteworks.com/cybersecurity-risk-management/ai-agent-security-risks-agents-of-chaos-study/ verfügbar.

VectorCertains Governance-Ansatz erhält Bestätigung durch mehrere institutionelle Rahmenwerke. Die interne Bewertung des Unternehmens nach der MITRE ATT&CK-Methodik zeigte eine Wirksamkeit von 98,2 % über 14.208 Versuche ohne Ausfälle. Zudem erfüllt VectorCertains Architektur alle 230 Kontrollziele des US-Finanzministeriums für KI-Risikomanagement, das ausdrücklich unabhängige Tests und Validierung von KI-Systemen verlangt. Die regulatorische Landschaft bewegt sich auf ähnliche Prinzipien zu, wobei die Frist für die Durchsetzung des EU-KI-Gesetzes im August 2026 näher rückt und NIST eine KI-Agenten-Standardinitiative zu Identität, Autorisierung und Sicherheit startet.

Die Studienergebnisse sind besonders dringlich, da die ausgenutzten Schwachstellen keine modellspezifischen Fehler, sondern Eigenschaften der sequenziellen Verarbeitung von Großsprachmodellen sind. Prompt-Injection und ähnliche Manipulationstechniken stellen architektonische Merkmale dar, keine behebbaren Schwachstellen, was bedeutet, dass Verbesserungen der Modellfähigkeiten allein das Governance-Problem nicht lösen können. Dies erklärt, warum laut der Kiteworks-Analyse 90 % der Regierungsbehörden keine Zweckbindung für KI-Agenten haben und 76 % keine Notabschaltung für autonome Systeme.

VectorCertain hält über 55 vorläufige Patente für seine Governance-Architektur, die kryptografische Quellenverifizierung, Handlungsverhältnismäßigkeitsbewertung, datenklassifikationsunabhängige Agentenlogik und statistische Unabhängigkeitsprüfung für Governance-Modelle umfasst. Der Ansatz des Unternehmens adressiert, was Forscher als grundlegende Einschränkung aktueller Sicherheitsmethoden identifizierten: Abwehrmechanismen, die Rechenebenen mit den Systemen teilen, die sie schützen, können über dieselben Kanäle wie Angriffe umgangen werden.

Die Forschung bestätigt einen Governance-Ansatz, der zunehmend kritisch wird, da KI-Agenten Zugang zu Zahlungssystemen, sensiblen Daten und kritischer Infrastruktur erhalten. Bei globalen cyberbedingten Betrugsverlusten von jährlich 485,6 Milliarden US-Dollar und durchschnittlichen US-Datenschutzverletzungskosten von 10,22 Millionen US-Dollar zeigt die Studie, dass externe Governance-Architekturen nicht nur vorteilhaft, sondern notwendig für den sicheren großflächigen Einsatz von KI-Agenten sind.

blockchain registration record for this content
Das Redaktionsteam Burstable.News

Das Redaktionsteam Burstable.News

@Burstable

Burstable.News versorgt Online-Publikationen und Webseiten täglich mit redaktionell ausgewählten Nachrichten. Nehmen Sie noch heute Kontakt auf, wenn Sie an neuen, attraktiven Inhalten interessiert sind, die genau auf Ihre Besucher zugeschnitten sind.