article-poster
09 Apr 2026
Thought leadership
Read time: 3 Min
19k

Claude Code und Co.: Wie sich autonome KI-Agenten im Web angreifen lassen

By Stefan office@db-media.at

Ich erinnere mich noch genau an den Moment, als ich zum ersten Mal einen autonomen KI-Agenten in einem Produktivsystem einsetzte.

Das Gefühl war elektrisierend.

Endlich konnte ich repetitive Aufgaben automatisieren, die mich seit Jahren genervt hatten. Der Agent arbeitete schnell, präzise und unermüdlich.

Aber dann kam die Frage, die ich mir damals nicht gestellt hatte: Was passiert, wenn jemand diesen Agenten manipuliert?

Die brutale Wahrheit über KI-Agenten-Sicherheit

2026 ist das Jahr, in dem sich Unternehmen auf eine neue Realität einstellen müssen.

Sicherheitsexperten warnen eindringlich: 2026 wird das Jahr, in dem raffinierte Angriffe durch agentische KI zur Normalität werden. Analysten prognostizieren einen spektakulären Datendiebstahl durch einen autonomen KI-Agenten, der das öffentliche Vertrauen in die Technologie erschüttern wird.

Die Zahlen sind brutal:

Prompt Injection Angriffe sind 2026 um 340% gestiegen.

Multi-hop indirekte Angriffe über Agenten und Tools sind zwischen 2025 und 2026 um über 70% gestiegen. CrowdStrike dokumentierte 2026 Prompt Injection Angriffe gegen über 90 Organisationen.

Aber hier ist, was ich nicht verstanden hatte: Das Problem liegt nicht in der Technologie selbst. Es liegt in der fundamentalen Architektur.

Das strukturelle Design-Problem

Lass mich dir zeigen, was wirklich passiert.

Klassische IT-Systeme trennen strikt zwischen Daten und Anweisungen. Ein Webserver weiß genau: Das ist eine Datenbank-Abfrage, das ist User-Input, das ist Code.

KI-Agenten funktionieren anders.

Sie unterscheiden nicht zuverlässig zwischen Daten und Anweisungen.

Stattdessen bewerten sie Eingaben primär nach Plausibilität und Kontext – nicht nach Vertrauenswürdigkeit oder Herkunft. Das ist wie ein Mitarbeiter, der nicht zwischen einer E-Mail vom Chef und einer Phishing-Mail unterscheiden kann.

Die Studie "Agents of Chaos" zeigt das Problem in aller Deutlichkeit: Ein Angreifer änderte seinen Discord-Namen auf den des Besitzers – der Agent akzeptierte diese Identität ohne weitere Prüfung und führte anschließend potenziell schädliche Befehle aus.

Kein komplexer Hack. Nur ein geänderter Name.

Claude Code: Drei kritische Sicherheitslücken

Anthropics KI-gestütztes Coding-Tool Claude Code ist ein perfektes Beispiel dafür, wie schnell es gefährlich werden kann.

2026 wurden drei kritische Sicherheitslücken entdeckt, die Entwickler dem Risiko einer kompletten Maschinenübernahme und Credential-Diebstahl aussetzten – einfach durch das Öffnen eines Projekt-Repositorys.

Stell dir vor: Du öffnest ein GitHub-Repo, um Code zu reviewen. Innerhalb von Sekunden hat ein versteckter Prompt Injection dein System kompromittiert.

Die Sicherheitslücke CVE-2025-53773 zeigte, dass versteckte Prompt Injection in Pull Request Beschreibungen Remote Code Execution mit GitHub Copilot ermöglichte – mit einem CVSS Score von 9.6.

Das ist nicht theoretisch. Das passiert jetzt.

Sind KI-Agenten sicherer als Menschen?

Die Frage ist falsch gestellt.

Es geht nicht darum, ob KI-Agenten sicherer sind als Menschen. Es geht darum, dass sie anders verwundbar sind.

Ein menschlicher Mitarbeiter kann Social Engineering erkennen. Er kann misstrauisch werden, wenn eine E-Mail komisch klingt. Er kann einen Chef anrufen und nachfragen.

Ein KI-Agent nicht.

Anthropics System Card für Claude Opus 4.6 zeigt: Ein einzelner Prompt Injection Versuch gegen einen GUI-basierten Agenten gelingt in 17,8% der Fälle ohne Schutzmaßnahmen. Nach dem 200. Versuch liegt die Erfolgsquote bei 78,6%.

Und hier kommt der entscheidende Unterschied:

Ein autonomer Agent kann Tausende von Zugangsdaten testen, ein Netzwerk auf Schwachstellen scannen und seine Angriffsstrategie in Stunden anpassen – ein Prozess, der menschliche Angreifer Tage oder Wochen kosten würde.

Die Geschwindigkeit ist das Problem.

Diese Komprimierung der Angriffszeit verkürzt das Fenster für Erkennung und Reaktion dramatisch. Wenn ein Agent kompromittiert ist, hast du nicht Tage Zeit zu reagieren. Du hast Minuten.

Die Realität in Unternehmen

Jetzt wird es richtig unangenehm.

Laut dem Gravitee State of AI Agent Security 2026 Report haben 80,9% der technischen Teams bereits aktive Tests oder Produktions-Deployments von KI-Agenten.

Klingt progressiv, oder?

Aber nur 14,4% dieser Agenten gingen mit vollständiger Sicherheits- und IT-Freigabe live.

82% der Führungskräfte fühlen sich zuversichtlich, dass ihre bestehenden Richtlinien vor unautorisierten Agenten-Aktionen schützen. Aber Felddaten zeigen eine andere Geschichte: Über die Hälfte der deployten Agenten operiert ohne Sicherheitsüberwachung oder Logging.

Das ist wie ein Auto ohne Bremsen zu fahren und sich sicher zu fühlen, weil du einen Sicherheitsgurt trägst.

Im Durchschnitt fließen lediglich rund sechs Prozent der Sicherheitsbudgets in Maßnahmen zur Absicherung von KI-Agenten. Ein Teil der Unternehmen erfasst diese Risiken nicht einmal gesondert.

Was OpenAI und Anthropic selbst einräumen

Selbst die Entwickler dieser Systeme sind nervös.

OpenAI räumt ein, dass künftige Modelle erhebliche Cybersicherheitsrisiken bergen könnten – etwa die Fähigkeit, komplexe Schwachstellen zu identifizieren.

Anthropics Reaktion beinhaltet mehrschichtige Verteidigungen: Training von Modellen zum Erkennen von Injection-Mustern, Monitoring des Produktions-Traffics und externes Red-Teaming.

Aber das Unternehmen stellt explizit fest: Diese Schutzmaßnahmen sind nicht narrensicher.

In OpenAIs Erfahrung ähneln die effektivsten realen Versionen dieser Angriffe zunehmend Social Engineering mehr als einfachen Prompt-Overrides. Bisweilen reicht es, den ersten Agenten hinter dem Frontend auszutricksen, sodass er falsche Informationen oder Inhalte, in die schädliche Prompts eingebettet sind, an nachfolgende Agenten weiterreicht.

Das ist die neue Realität.

Supply Chain Risiken: Die unterschätzte Gefahr

Hier wird es noch komplexer.

Angreifer injizieren bösartige Logik in populäre Open-Source Agent Frameworks und Tool-Definitionen, die Entwickler herunterladen.

Der Barracuda Security Report vom November 2026 identifizierte 43 verschiedene Agent Framework Komponenten mit eingebetteten Schwachstellen durch Supply Chain Kompromittierung.

Du denkst, du installierst ein vertrauenswürdiges Tool. In Wirklichkeit holst du dir einen Trojaner ins System.

Das Problem: Die meisten Entwickler prüfen nicht jede Zeile Code in den Frameworks, die sie nutzen. Sie vertrauen darauf, dass die Community das schon geregelt hat.

Aber die Community ist genauso überfordert wie alle anderen.

Was du jetzt tun kannst

Die Situation ist ernst. Aber nicht hoffnungslos.

Hier ist, was ich aus 15+ Jahren digitaler Erfahrung gelernt habe:

1. Behandle KI-Agenten wie privilegierte User

Gib ihnen nur die Rechte, die sie wirklich brauchen. Nicht mehr. Ein Agent, der E-Mails lesen soll, braucht keinen Zugriff auf deine Datenbank.

2. Implementiere Logging und Monitoring

Über die Hälfte der Agenten läuft ohne Überwachung. Das ist fahrlässig. Jede Aktion eines Agenten muss nachvollziehbar sein.

3. Trenne Umgebungen strikt

Test-Agenten gehören nicht ins Produktivsystem. Punkt. Keine Ausnahmen, auch nicht "nur kurz".

4. Investiere in dedizierte Spezialisten

Du brauchst Leute, die genau verstehen, wie Agentic AI arbeitet. Dein klassisches Security-Team reicht nicht aus.

5. Etabliere einen Freigabeprozess

Kein Agent geht ohne Security- und IT-Freigabe live. Das ist nicht Bürokratie. Das ist Risikomanagement.

6. Budget anpassen

Sechs Prozent des Sicherheitsbudgets für KI-Agenten? Das ist lächerlich. Wenn 80% deiner Teams Agenten einsetzen, muss sich das im Budget widerspiegeln.

Die fundamentale Frage

Die Industrie hat "Prompt Injection" so oft wiederholt, dass der Begriff zu Hintergrundrauschen geworden ist.

Aber für Agent-Systeme ist es kein Buzzword. Es ist ein strukturelles Design-Problem.

Und strukturelle Probleme löst man nicht mit Patches. Man löst sie mit grundlegend anderer Architektur.

Die Frage ist nicht: Sind KI-Agenten sicherer als Menschen?

Die Frage ist: Bist du bereit, die Verantwortung für ein System zu übernehmen, das du nicht vollständig kontrollieren kannst?

Denn genau das sind KI-Agenten. Systeme, die autonom Entscheidungen treffen, auf Basis von Inputs, die du nicht vollständig validieren kannst.

Ich setze KI-Agenten ein. Täglich. Aber ich tue es mit offenen Augen.

Ich weiß, dass jeder Agent ein potenzielles Einfallstor ist. Ich weiß, dass die Schutzmaßnahmen nicht perfekt sind. Ich weiß, dass ich ein Risiko eingehe.

Aber ich manage dieses Risiko bewusst. Mit klaren Grenzen, striktem Monitoring und einem Team, das versteht, was auf dem Spiel steht.

Die Frage ist: Tust du das auch?

Oder läuft bei dir gerade ein Agent im Produktivsystem, von dem dein Security-Team nichts weiß?

Wo stehst du gerade?

media-contact-avatar
Stefan di Bernardo
CEO db-media gmbh

Email für Presseanfragen

office@db-media.at

NEWSLETTER

Receive news by email

Press release
Company updates
Thought leadership

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply

You have successfully subscribed to the news!

Something went wrong!