Red Teaming - Sparring & Support
Wir hacken Ihre Agenten, bevor es andere tun.
Härten Sie Ihre GenAI-Anwendungen, RAG-Pipelines und Tool-Calling-Agenten gegen echte Angriffe. Unser Agentic Red Teaming legt Schwachstellen offen, priorisiert Risiken und begleitet Sie dabei, wirksame Fixes schnell umzusetzen.
Was Sie nach dem Red Teaming Sparring können:
- Agentische Systeme verstehen
Aufbau, Funktionsweise und typische Komponenten (Context Layer, Orchestrierung, Multi-Agent-Patterns) - Einführung & Red-Teaming-Grundlagen
Ziele und Prinzipien des Red Teamings, Ethik, Scope sowie Regeln für sichere und kontrollierte Tests - Framing & Safety-Grundlagen
Threat Modeling & Scoping, Rules of Engagement; sicherer Umgang mit Daten (PII/Secrets); messbare Erfolgskriterien pro Testlauf - LLM-Jailbreaking: Kerntechniken
Überblick über Prompt Injection und Jailbreak-Muster sowie Tool-/Permission-Abuse (konzeptionelle Taktiken, keine Exploit-Anleitungen) - Advanced Attacks
Multi-Turn-Taktiken, multimodale Risiken (Text/Bild/Audio), Converter-Vektoren (Format-/Kanalwechsel) und weitere aktuelle Patterns; typische Detektionssignale - Automation & Metrics: Prompt-Sets, Replay-Harness & Scoring
Evaluation-Rubrics, Regression Suites, Vergleichbarkeit über Testläufe und Modelle hinweg - Defense, Detection & Reporting: Guardrails
Policies (Input/Output-Kontrollen, Approval Gates), AI-Compliance (u. a. EU AI Act/DSGVO/CH-DSG), Reporting (Risk Rating, Evidenz, Executive Summary) und Mitigation Planning (Kurz-/Mittel-/Langfrist-Roadmap).
Dein Business und Tech Teams wissen nach dem Kurs mehr zu:
• Grundlagen der KI-Sicherheit
• Grundlagen von Agentic AI
• Prompt Injection & Jailbreaks:
Der Nutzer bringt die KI dazu, ihre Regeln zu ignorieren und Dinge zu tun, die sie eigentlich nicht darf.
• RAG-Poisoning:
Falsche oder manipulierte Dokumente werden in die Wissensquelle der KI eingeschleust, damit sie falsche Antworten gibt.
• Datenexfiltration: Vertrauliche Daten werden über die KI unbemerkt nach aussen weitergegeben.
• PII-Lecks (personenbezogene Daten):
Die KI gibt private Informationen über Personen preis, die geschützt sein sollten.
• Missbrauch von Tools & Function Calls:
Die KI wird dazu gebracht, angeschlossene Systeme oder Funktionen auf eine gefährliche Weise auszuführen.
• Unsichere Ausgabe-Verarbeitung:
Die Antworten der KI werden weiterverwendet, ohne sie auf Risiken wie Code, Befehle oder sensible Inhalte zu prüfen.
• Long-Context-Kontamination:
Lerne über Sicherheits- und Qualitätsproblem bei LLMs, das entsteht, wenn ein Modell über einen sehr langen Eingabekontext hinweg „vergiftet“ wird – also durch frühere Inhalte in eine falsche, unsichere oder manipulierbare Richtung gedrängt wird.
• Kostenmissbrauch & DoS: Die KI wird gezielt mit Anfragen überflutet, um hohe Kosten zu verursachen oder den Dienst lahmzulegen.
• Halluzinationsinduktion: Angriffe oder Taktiken, mit denen ein LLM gezielt dazu gebracht wird, plausibel klingende, aber falsche Informationen zu erfinden
So arbeiten wir – 4 Phasen
- Scoping & Threat Model – Ziele, Übersichten, Architektur, Datenflüsse, Policies.
- Angriffssimulation – Beispiele, automatisierte Red-Team-Agenten, Red Teaming Szenarien, Angriffsmöglichkeiten und -taktiken (Social Engineering).
- Praktische Übungen – Gemeinsames Testen und Ausprobieren: RAG-Kontrollen, Tool-Safeguards, Guardrails, Prompt- & Policy-Design, sicheres Output-Handling, Halluzinationen reduzieren.
- Report, Re-Test & Enablement – Massnahmenplan, KPIs,
Wir entwickeln selbst
agentenbasierte End-to-End-Automatisierung und teilen unser Praxiswissen mit dir.
Unser Versprechen: praxisnahe, messbare Risikominderung und Bewusstsein für KI Risiken.
Kontaktieren Sie uns

Nina Habicht
CEO & Founder
Häufige Fragen
Testet ihr Microsoft Copilot / Google Vertex / OpenAI- oder Llama-basierte Apps?
Ja. Wir testen Plattform-Copilots und individuelle LLM-Apps (OpenAI, Azure OpenAI, Anthropic, Google, Mistral, Llama u. a.), inkl. Tool-Calling und Retrieval-Layer.
Seht ihr unsere Produktivdaten?
In der Regel nein. Wir bevorzugen prod-aehnliche Sandboxes oder maskierte Daten. Falls Produktion noetig ist, definieren wir strenge Scopes, Rate Limits und Logging.
Wie steht es um Compliance (EU AI Act, OWASP GenAI, NIST AI RMF)?
Unsere Findings werden Frameworks zugeordnet. Wir haben Unterlagen zu EU AI Act und weiteren Frameworks für Sie.
Unterstützt ihr auch die Umsetzung, nicht nur das Finden?
Ja. Das ist der Purple-Team Fix Sprint – gemeinsam umsetzen, anschliessend via Re-Test verifizieren.
Wo arbeitet ihr?
Wir bedienen DACH (Schweiz, Deutschland, Oesterreich) und die EU – remote-first, mit On-Site-Optionen.
Wie schnell können wir starten?
Nach einem kurzen Scoping-Call können Ziele und Datenhandling bestätigt werden.
