2025 KI-Sicherheitslösungen Radar
Veröffentlicht am 13. November 2025
- Cyber Security
In Kürze
- Der Markt für KI-Sicherheit reift und konsolidiert sich durch bedeutende Übernahmen
- Die Zahl der Lösungen ist von 88 auf 94 gestiegen; eine neue Kategorie „AI Firewall & Response“ wurde hinzugefügt
- Unternehmen stehen vor einer Wahl: spezialisierte Lösungen oder cloud-native KI-Sicherheit
- Agentic AI bringt umfassendere und komplexere Sicherheitsrisiken mit sich
2025 KI-Sicherheitslösungen Radar
Der Markt für KI-Sicherheit tritt in eine neue Phase ein
Nach mehreren Jahren voller Begeisterung und Erkundung erleben wir nun eine deutliche Konsolidierung des Marktes für KI-Sicherheitslösungen. Der KI-Sicherheitssektor tritt in eine Phase der Reife ein, wie die Entwicklung unseres AI Security Solutions Radar zeigt. Seit unserer letzten Veröffentlichung haben fünf bedeutende Übernahmen stattgefunden:
- Cisco übernahm Robust Intelligence im September 2024
- SAS übernahm Hazy im November 2024
- H Company übernahm Mithril Security Ende 2024
- Nvidia übernahm Gretel im März 2025
- Palo Alto kündigte im April 2025 seine Absicht an, ProtectAI zu übernehmen
Diese Entwicklungen spiegeln den klaren Wunsch großer IT-Akteure wider, ihre Positionen zu sichern, indem sie Schlüsseltechnologie-Startups übernehmen.
Gleichzeitig listet unsere neue Karte nun 94 Lösungen, im Vergleich zu 88 in der Ausgabe von Oktober 2024. Fünfzehn neue Lösungen sind hinzugekommen, während acht entfernt wurden. Diese Entfernung ist hauptsächlich auf eingestellte Angebote oder strategische Neuausrichtungen zurückzuführen: Einige Startups konnten keine Markttraktion erzielen, andere verlagerten ihren Fokus auf breitere KI-Anwendungen über die Cybersicherheit hinaus.
Schließlich vollzieht sich ein Paradigmenwechsel: Lösungen entwickeln sich über das bloße Stapeln technischer Bausteine hinaus zu integrierten Verteidigungsarchitekturen, die auf die langfristigen Bedürfnisse großer Organisationen ausgelegt sind. Interoperabilität, Skalierbarkeit und die Ausrichtung an den Anforderungen großer Unternehmen werden zu neuen Standards. KI-Sicherheit etabliert sich nun als globale Strategie und nicht mehr nur als Sammlung ad-hoc-basierter Maßnahmen.
Um diese Entwicklung widerzuspiegeln, haben wir unsere eigene Karte aktualisiert und eine neue Kategorie geschaffen: AI Firewall & Response, die aus der Zusammenlegung unserer Kategorien Machine Learning Detection & Response und Secure Chat/LLM Firewall entstanden ist.
Best-of-Breed oder „Good Enough“? Das Integrationsdilemma
Mit der zunehmenden Integration von KI-Sicherheitskomponenten in die Angebote der großen Cloud-Anbieter (Microsoft Azure, AWS, Google Cloud) stellt sich eine strategische Frage: Sollten wir auf spezialisierte Expert:innenlösungen setzen oder uns auf die native Funktionalität der Hyperscaler verlassen?
- Spezialisierte Lösungen bieten technische Tiefe und gezielte Abdeckung und ergänzen bestehende Sicherheitsmaßnahmen
- Integrierte Komponenten sind einfacher zu implementieren, interoperabel mit bestehender Infrastruktur und in vielen Standardanwendungsfällen häufig ausreichend.
Es geht hier nicht darum, das eine dem anderen vorzuziehen, sondern die Möglichkeiten aufzuzeigen. Nachfolgend ein Überblick über einige Sicherheitshebel, die über die Angebote der Hyperscaler verfügbar sind.
Dieser Ansatz geht über die Sicherung von ruhenden oder übertragenen Daten hinaus: Er zielt darauf ab, laufende Berechnungen mithilfe sicherer Enklaven zu schützen. Dadurch wird ein hohes Maß an Vertraulichkeit über den gesamten Lebenszyklus von KI-Modellen, sensiblen Daten oder proprietären Algorithmen gewährleistet, indem unbefugter Zugriff verhindert wird.
Cloud-Anbieter integrieren nun Sicherheitsfilter, um die Interaktion mit KI sicherer zu gestalten. Ziel ist es, unerwünschte oder gefährliche Inhalte zu erkennen oder zu blockieren. Diese Mechanismen gehen jedoch weit über einfache Moderation hinaus: Sie spielen eine zentrale Rolle beim Schutz vor adversarialen Angriffen, wie zum Beispiel Prompt-Injektionen oder Jailbreaks, die darauf abzielen, das Verhalten von Modellen zu manipulieren.
Dabei wird bewertet, wie gut ein KI-Modell Störungen, Fehlern oder gezielten Angriffen standhält. Es umfasst:
- Anfälligkeit für adversariale Angriffe
- Empfindlichkeit gegenüber verrauschten Daten
- Stabilität bei mehrdeutigen Prompts
- Resilienz gegenüber Extraktions- oder Manipulationsversuchen
Diese Werkzeuge bieten eine erste automatisierte Einschätzung, die vor dem Produktiveinsatz nützlich ist.
Agentic AI: ein bereichsübergreifendes Risiko, ein verteilter Sicherheitsansatz
Unter den Trends, die bei Cybersecurity-Expert:innen zunehmend Aufmerksamkeit erregen, gewinnt agentic AI an Bedeutung. Diese Systeme, die Entscheidungen treffen, Handlungen planen und mit komplexen Umgebungen interagieren können, vereinen tatsächlich zwei Arten von Schwachstellen:
- die von traditionellen IT-Systemen
- und die, die spezifisch für KI-Modelle sind
Das Ergebnis: eine erweiterte Angriffsfläche und potenziell kritische Konsequenzen. Bei falscher Konfiguration könnte ein Agent auf sensible Dateien zugreifen, schädlichen Code ausführen oder unerwartete Nebeneffekte in einer Produktionsumgebung auslösen.
Ein zusätzlicher Risikofaktor: das Aufkommen des Model Context Protocol (MCP), eines Standards, der derzeit eingeführt wird und es LLMs ermöglicht, standardisiert mit Drittanbieter-Tools und -Diensten (E-Mail, Kalender, Drive …) zu interagieren. Während dies die Verbreitung von Agenten erleichtert, führt es auch neue Angriffsvektoren ein:
- Exposition oder Diebstahl von Authentifizierungstokens
- Fehlende Authentifizierungsmechanismen für Tools
- Möglichkeit von Prompt-Injektionen in scheinbar harmlosen Inhalten
- Oder Kompromittierung eines MCP-Servers, der Zugang zu allen verbundenen Diensten gewährt
Über technische Schwachstellen hinaus bringt das unvorhersehbare Verhalten von agentic AI eine neue Komplexitätsebene. Da Handlungen direkt aus den Ausgaben des KI-Modells resultieren, kann eine Fehlinterpretation oder Planungsfehler zu erheblichen Abweichungen vom ursprünglichen Ziel führen.
In diesem Kontext fällt die Sicherung von agentic AI nicht in eine einzelne Kategorie. Sie erfordert bereichsübergreifende Abdeckung, die alle Komponenten unseres Radars mobilisiert: Robustheitsbewertung, Monitoring, Datenschutz, Erklärbarkeit, Filterung und Risikomanagement. Und genau das zeigt sich auch am Markt: Die ersten Sicherheitsmaßnahmen für agentic AI kommen nicht von neuen Akteuren, sondern als zusätzliche Features in bestehenden Lösungen. Ein aufkommendes Thema also, aber eines, das bereits adressiert wird.
Unsere Empfehlungen: Welche KI-Sicherheitskomponenten sollten priorisiert werden?
Angesichts der Entwicklung der Bedrohungen, der wachsenden Komplexität von KI-Systemen (insbesondere von Agenten) und der Vielfalt verfügbarer Lösungen empfehlen wir, die Anstrengungen auf drei sich ergänzende Hauptkategorien der Sicherheit zu konzentrieren.
Die Überwachung von KI-Systemen ist unverzichtbar geworden. Tatsächlich kann eine KI unvorhersehbar evolvieren, im Laufe der Zeit an Leistung verlieren oder problematische Antworten erzeugen, ohne dass dies sofort bemerkt wird. Dies ist besonders kritisch bei agentic AI, deren Verhalten direkte operative Auswirkungen haben kann, wenn es unbeaufsichtigt bleibt.
Angesichts dieser Volatilität ist es entscheidend, schwache Signale in Echtzeit zu erkennen (z. B. Prompt-Injektionen, Verhaltensabweichungen, aufkommende Biases). Deshalb ist es ratsam, auf spezialisierte Expert:innenlösungen für Detection und Response zu setzen, die spezifische Analysen und Alarmmechanismen bieten, die auf diese Bedrohungen zugeschnitten sind.
Vor dem Einsatz eines Modells in der Produktion ist es entscheidend, dessen Robustheit und Widerstandsfähigkeit gegen Angriffe zu prüfen. Dies umfasst klassische Modelltests, aber auch offensivere Ansätze wie AI Red Teaming, bei dem reale Angriffe simuliert werden, um Schwachstellen zu identifizieren, die von Angreifern ausgenutzt werden könnten.
Besonders bei agentic AI sind die Einsätze hoch: unvorhergesehene Verhaltensweisen können schwerwiegende Folgen haben – sowohl für Sicherheit als auch für Compliance.
Spezialisierte Lösungen bieten einen erheblichen Mehrwert, indem sie automatisierte Tests ermöglichen, die Aufdeckung neuer Schwachstellen unterstützen und die Erfassung von Nachweisen für regulatorische Anforderungen erleichtern (z. B. zur Vorbereitung auf das AI Act). Angesichts der hohen Kosten und des Aufwands, diese Fähigkeiten intern zu entwickeln, ist das Outsourcing über spezialisierte Tools oft effizienter.
Schließlich müssen die Dimensionen Ethik, Transparenz und Nichtdiskriminierung bereits in der Designphase von KI-Systemen integriert werden. Dazu gehört, Modelle regelmäßig zu testen, um unbeabsichtigte Biases oder schwer nachvollziehbare Entscheidungen zu erkennen.
Auch hier stellt agentic AI zusätzliche Herausforderungen: Agenten treffen autonome Entscheidungen in sich verändernden Umgebungen, wobei ihre Begründungen teilweise undurchsichtig sind. Nachzuvollziehen, warum ein Agent auf eine bestimmte Weise gehandelt hat, ist entscheidend, um Fehler oder Ungerechtigkeiten zu vermeiden.
Spezialisierte Tools ermöglichen es, Modelle zu auditieren, ihre Fairness und Erklärbarkeit zu messen und Systeme an anerkannten ethischen Rahmenwerken auszurichten. Diese Lösungen bieten zudem aktualisierte Testframeworks, die intern schwer zu pflegen sind, und tragen so dazu bei, leistungsstarke und verantwortungsvolle KI sicherzustellen.
Fazit: Aufbau einer Sicherheitsstrategie für Enterprise-KI
Da künstliche Intelligenz zunehmend in Unternehmensprozesse eingebettet wird, ist die Sicherung von KI-Systemen nicht länger optional – sie ist ein strategisches Muss. Die schnelle Entwicklung von Bedrohungen, das Aufkommen von agentic AI und die zunehmende Komplexität von Modellen erfordern einen Wandel von reaktiven Maßnahmen hin zu proaktiven, integrierten Sicherheitsstrategien.
Organisationen müssen über fragmentierte Ansätze hinausgehen und ein ganzheitliches Framework etablieren, das Robustheitstests, kontinuierliches Monitoring und ethische Schutzmechanismen vereint. Der Aufstieg integrierter Verteidigungsarchitekturen und die Konvergenz der KI-Sicherheitsdomänen spiegeln einen reifen Markt wider, der nun bereit ist, Enterprise-Deployments in großem Maßstab zu unterstützen.
Die Herausforderung ist klar: das richtige Gleichgewicht zwischen spezialisierten Tools und nativen Cloud-Funktionalitäten finden, umfassende und konsistente Abdeckung sicherstellen und KI-Systeme vertrauenswürdig, resilient und auf die Unternehmensziele ausgerichtet halten.
Wir danken Anthony APRUZZESE für seinen wertvollen Beitrag zur Erstellung dieses Artikels.