Risky Business: Soap Box: Why AI can't fix bad security products
Eine technisch fundierte Deep-Dive-Episode über die realistische Anwendung von KI-Agenten in der E-Mail-Sicherheit mit konkreten Beispielen und ehrlichen Limitationen.
Risky Business
36 min read2231 min audioIn dieser Soapbox-Folge von Risky Business spricht Patrick Gray mit Josh Kamdjou, CEO von Sublime Security, über den realistischen Einsatz von KI und Agenten in der E-Mail-Sicherheit. Kamdjou erklärt, wie seine Firma zwei spezialisierte Agenten einsetzt: ASA (Autonomous Security Analyst) für Alert-Triage und ADE (Autonomous Detection Engineer) zur autonomen Erstellung und Verbesserung von Detection-Rules. Besonders interessant: Die Agenten arbeiten in einem Multi-Agent-System zusammen, kommunizieren über eine domänenspezifische Sprache und können durch Backtesting und Retrohunting ihre eigene Effizienz nachweisen. Die Architektur ermöglicht sowohl vollautomatisierten Betrieb für kleine Teams als auch tiefe Anpassungen für fortgeschrittene Nutzer wie Netflix oder Spotify.
### 1. Agenten lösen echte Probleme statt nur Hype zu generieren
Kamdjou betont, dass LLMs sinnvolle Anwendungsfälle in der Security haben: "There are problems that we have as an industry... that AI agents, LLMs are genuinely good at augmenting your workflows or automating a lot of that work." Die Fokussierung liegt auf konkreten, begrenzten Aufgaben statt universellen Lösungen.
### 2. Die "Security AI Agent Trilemma" limitiert universelle Lösungen
Kamdjou präsentiert ein eigenes Konzept: "the security AI agent trilemma" - ein Zielkonflikt zwischen Geschwindigkeit, Kosten und Effizienz. Daraus folgert er, dass nicht alle Security-Probleme für Agenten geeignet sind, besonders wenn Echtzeit-Anforderungen bestehen.
### 3. Multi-Agent-Architekturen sind der Schlüssel zum Erfolg
Statt eines universalen Agenten setzt Sublime auf spezialisierte Agenten, die zusammenarbeiten: "These agents are communicating with one another... it's a multi-agent architecture where we have got many of our own agents." Dies ermöglicht komplexe Workflows wie automatisierte Detection-Verbesserung.
### 4. Transparenz und Kontrolle bleiben zentral
Die Agenten arbeiten nicht im Verborgenen - jede Aktion kann vor dem Live-Schaltung überprüft werden. Kamdjou: "it'll output that to this final result along with full explainability on how it got there." Nutzer können Kriterien definieren, wann automatische Freigaben erfolgen.
### 5. Zukunft liegt in Agent-zu-Agent-Kommunikation
Die Vision geht über einzelne Produkte hinaus: "the next evolution of where I think we are going as an industry is you're going to have agents of other companies talking to other agents." Beispiel: Sublime-Agenten könnten mit Endpoint-Detection-Agenten kommunizieren, um vollständige Incident-Response zu ermöglichen.
### 6. Skalierbarkeit von Ein-Personen-Teams bis zu Enterprise
Die Architektur ermöglicht extreme Skalierung: "we're working with one university who is 100,000 mailboxes, one person IT and security team... it's full autopilot" - während gleichzeitig fortgeschrittene Teams wie Netflix die volle Kontrolle behalten.
## Einordnung
Die Episode zeigt eine bemerkenswert nüchterne Herangehensweise an KI-Hype in der Security-Branche. Statt großer Versprechen wird eine methodische, technisch fundierte Diskussion geliefert, die klare Grenzen und realistische Erwartungen definiert. Besonders positiv: Die Transparenz über Sponsoring und die ehrliche Anerkennung von Limitationen. Die Argumentation folgt einer klaren technischen Logik ohne übertriebene Marketing-Sprache. Die Perspektive bleibt jedoch auf technische Machbarkeit fokussiert - gesellschaftliche Implikationen von vollautomatisierten Security-Systemen oder Fragen nach Arbeitsplatzverlusten werden nicht thematisiert. Die Diskussion bleibt auf Effizienz- und Technologie-Aspekte beschränkt, was für ein Fachpodcast angemessen ist, aber eine breitere gesellschaftliche Einordnung vermissen lässt.