📢 Pressemitteilung

Tool-Registry-Poisoning gefährdet KI-Agenten

16. Mai 2026·Quelle: VentureBeat AI

Nach Informationen von VentureBeat hat ein Sicherheitsforscher eine kritische Lücke in der Sicherheit von KI-Agenten aufgedeckt: Diese wählen Tools aus gemeinsamen Registries basierend auf Textbeschreibungen – ohne dass Menschen überprüfen, ob diese Beschreibungen tatsächlich wahr sind. Das Problem geht über einfache Artefakt-Integrität hinaus: Angreifer können Prompt-Injections in Tool-Beschreibungen einschleusen oder Server-seitige Verhaltensänderungen durchführen, die klassische Code-Signing- und Supply-Chain-Kontrollen nicht erkennen. Der Forscher hat das Problem als zwei separate Vulnerabilities klassifiziert – eine auf Auswahl-Zeit (Tool-Impersonation), eine auf Ausführungs-Zeit (Verhaltensabweichung).

Das zeigt eine fundamental neue Angriffsebene: Während traditionelle Supply-Chain-Defenses (SLSA, Sigstore, SBOMs) die Authentizität von Code prüfen, können sie nicht überprüfen, ob ein Tool sich *verhält* wie beschrieben. Für autonome Agenten, die Tausende spezialisierte Tools kombinieren, ist das ein erhebliches Risiko – besonders in Enterprise-Szenarien mit geschäftskritischen Daten.

Unsere Einordnung

Das ist ein Game-Changer für die gesamte Enterprise-AI-Branche. Während wir beim Code-Supply-Chain-Schutz große Fortschritte gemacht haben, zeigt sich jetzt: Autonome Agenten brauchen eine völlig neue Sicherheitsebene – eine, die nicht nur prüft, ob Code authentisch ist, sondern ob er sich tatsächlich so verhält, wie versprochen. Das Problem wird exponentiell kritischer, je mehr spezialisierte Tools Agenten kombinieren. Bis diese Lücke geschlossen ist, sollten Unternehmen Tool-Registries sehr skeptisch bewerten.

Schlüsselfakten

  • KI-Agenten wählen Tools anhand von Textbeschreibungen aus Registries – ohne Überprüfung durch Menschen
  • Klassische Sicherheitsmaßnahmen (Code-Signing, SLSA, SBOMs) erkennen Prompt-Injections in Tool-Beschreibungen nicht
  • Behavioral Drift: Verifizierte Tools können später ihr Verhalten ändern und Daten exfiltrieren
  • Problem wurde in CoSAI Secure-AI-Tooling Repository als zwei separate Vulnerabilities klassifiziert

Artikel teilen