Red Teaming - Sparring & Support


Wir hacken Ihre Agenten, bevor es andere tun.
Härten Sie Ihre GenAI-Anwendungen, RAG-Pipelines und Tool-Calling-Agenten gegen echte Angriffe. Unser Agentic Red Teaming legt Schwachstellen offen, priorisiert Risiken und begleitet Sie dabei, wirksame Fixes schnell umzusetzen.


Was Sie nach dem Red Teaming Sparring können:

  • Agentische Systeme verstehen
    Aufbau, Funktionsweise und typische Komponenten (Context Layer, Orchestrierung, Multi-Agent-Patterns)
  • Einführung & Red-Teaming-Grundlagen
    Ziele und Prinzipien des Red Teamings, Ethik, Scope sowie Regeln für sichere und kontrollierte Tests
  • Framing & Safety-Grundlagen
    Threat Modeling & Scoping, Rules of Engagement; sicherer Umgang mit Daten (PII/Secrets); messbare Erfolgskriterien pro Testlauf
  • LLM-Jailbreaking: Kerntechniken
    Überblick über Prompt Injection und Jailbreak-Muster sowie Tool-/Permission-Abuse (konzeptionelle Taktiken, keine Exploit-Anleitungen)
  • Advanced Attacks
    Multi-Turn-Taktiken, multimodale Risiken (Text/Bild/Audio), Converter-Vektoren (Format-/Kanalwechsel) und weitere aktuelle Patterns; typische Detektionssignale
  • Automation & Metrics: Prompt-Sets, Replay-Harness & Scoring
    Evaluation-Rubrics, Regression Suites, Vergleichbarkeit über Testläufe und Modelle hinweg
  • Defense, Detection & Reporting: Guardrails
    Policies (Input/Output-Kontrollen, Approval Gates), AI-Compliance (u. a. EU AI Act/DSGVO/CH-DSG), Reporting (Risk Rating, Evidenz, Executive Summary) und Mitigation Planning (Kurz-/Mittel-/Langfrist-Roadmap).


Dein Business und Tech Teams wissen nach dem Kurs mehr zu:


• Grundlagen der KI-Sicherheit
• Grundlagen von Agentic AI

• Prompt Injection & Jailbreaks:  Der Nutzer bringt die KI dazu, ihre Regeln zu ignorieren und Dinge zu tun, die sie eigentlich nicht darf.
• RAG-Poisoning:  Falsche oder manipulierte Dokumente werden in die Wissensquelle der KI eingeschleust, damit sie falsche Antworten gibt.
• Datenexfiltration: Vertrauliche Daten werden über die KI unbemerkt nach aussen weitergegeben.

• PII-Lecks (personenbezogene Daten): Die KI gibt private Informationen über Personen preis, die geschützt sein sollten.
• Missbrauch von Tools & Function Calls: Die KI wird dazu gebracht, angeschlossene Systeme oder Funktionen auf eine gefährliche Weise auszuführen.
• Unsichere Ausgabe-Verarbeitung:  Die Antworten der KI werden weiterverwendet, ohne sie auf Risiken wie Code, Befehle oder sensible Inhalte zu prüfen.
• Long-Context-Kontamination: Lerne über Sicherheits- und Qualitätsproblem bei LLMs, das entsteht, wenn ein Modell über einen sehr langen Eingabekontext hinweg „vergiftet“ wird – also durch frühere Inhalte in eine falsche, unsichere oder manipulierbare Richtung gedrängt wird.
• Kostenmissbrauch & DoS: Die KI wird gezielt mit Anfragen überflutet, um hohe Kosten zu verursachen oder den Dienst lahmzulegen.

Halluzinationsinduktion:  Angriffe oder Taktiken, mit denen ein LLM gezielt dazu gebracht wird, plausibel klingende, aber falsche Informationen zu erfinden

So arbeiten wir – 4 Phasen

  1. Scoping & Threat Model – Ziele, Übersichten, Architektur, Datenflüsse, Policies.
  2. Angriffssimulation – Beispiele, automatisierte Red-Team-Agenten, Red Teaming Szenarien, Angriffsmöglichkeiten und -taktiken (Social Engineering).
  3. Praktische Übungen – Gemeinsames Testen und Ausprobieren: RAG-Kontrollen, Tool-Safeguards, Guardrails, Prompt- & Policy-Design, sicheres Output-Handling, Halluzinationen reduzieren.
  4. Report, Re-Test & Enablement – Massnahmenplan, KPIs,


Wir entwickeln selbst agentenbasierte End-to-End-Automatisierung und teilen unser Praxiswissen mit dir.

Unser Versprechen:  praxisnahe, messbare Risikominderung und Bewusstsein für KI Risiken.

Kontaktieren Sie uns

Nina Habicht

CEO & Founder

Häufige Fragen

  • Testet ihr Microsoft Copilot / Google Vertex / OpenAI- oder Llama-basierte Apps?

    Ja. Wir testen Plattform-Copilots und individuelle LLM-Apps (OpenAI, Azure OpenAI, Anthropic, Google, Mistral, Llama u. a.), inkl. Tool-Calling und Retrieval-Layer.

  • Seht ihr unsere Produktivdaten?

    In der Regel nein. Wir bevorzugen prod-aehnliche Sandboxes oder maskierte Daten. Falls Produktion noetig ist, definieren wir strenge Scopes, Rate Limits und Logging.

  • Wie steht es um Compliance (EU AI Act, OWASP GenAI, NIST AI RMF)?

    Unsere Findings werden Frameworks zugeordnet. Wir haben Unterlagen zu EU AI Act und weiteren Frameworks für Sie.

  • Unterstützt ihr auch die Umsetzung, nicht nur das Finden?

    Ja. Das ist der Purple-Team Fix Sprint – gemeinsam umsetzen, anschliessend via Re-Test verifizieren.

  • Wo arbeitet ihr?

    Wir bedienen DACH (Schweiz, Deutschland, Oesterreich) und die EU – remote-first, mit On-Site-Optionen.

  • Wie schnell können wir starten?

    Nach einem kurzen Scoping-Call können Ziele und Datenhandling bestätigt werden.