Ihr Partner für IT-Sicherheit
& Compliance

OWASP GenAI Security Project · März 2026

Die 21 Daten-Risiken in GenAI-Systemen, die fast niemand auf dem Schirm hat

Das neue OWASP Whitepaper „GenAI Data Security — Risks and Mitigations 2026“ identifiziert 21 spezifische Datensicherheitsrisiken für LLMs, GenAI und Agentic AI. Wir zeigen, was drinsteht — und was Sie jetzt tun müssen.

Valeri Milke

Valeri Milke

CEO · VamiSec GmbH

ISO 27001 & 42001 Lead Auditor
AI Officer · NIS2 · CRA · AI Act

21
Data Security Risks identifiziert
103
Seiten Whitepaper
68%
nutzen GenAI ohne Genehmigung
+$670K
pro Breach durch Shadow AI
OWASP GenAI Project
MITRE ATLAS mapped
EU AI Act ready
ISO 27001 / 42001
CRA / NIS2 aligned
Das Kernproblem

Warum GenAI Data Security ein eigenes Thema braucht

Generative AI verändert die Spielregeln für Datensicherheit fundamental. Das Context Window wird zum Angriffsvektor.

Context Window = Flat Namespace

System Prompt, User Input, RAG-Daten, Tool Outputs — alles im selben Raum, ohne interne Access Controls. Ein RAG-Chunk aus der vertraulichen HR-Datenbank sitzt neben dem User Input mit gleichem Trust Weight.

Daten werden zu Code

In LLMs wird jeder Input potenziell zur Instruktion. Die Trennung von Control Plane und Data Plane existiert nicht. GenAI-Systeme müssen Zero Trust im Modell annehmen — es kann Daten leaken, rekonstruieren oder regurgitieren.

Neue Data Surfaces

Prompts, Embeddings, Vector Stores, Agent Traces, Tool Payloads, KV Caches — alles Angriffsflächen, die klassische DLP nicht sieht.

Agent Credentials als Crown Jewel

OAuth Tokens, API Keys und Cloud Credentials fließen in agentischen Workflows unkontrolliert durch Multi-Agent Chains.
GenAI Data Risks

Die 21 Data Security Risiken im Überblick

Jedes Risiko folgt einer konsistenten Struktur: Angriffsszenario, Impact, und dreistufige Mitigations (Crawl → Walk → Run).

DSGAI01

Sensitive Data Leakage

PII, Credentials und IP fließen unkontrolliert aus GenAI-Outputs ab — über Model Memorization, RAG Retrieval oder Logging.

DSGAI02

Agent Identity & Credential Exposure

OAuth Tokens und API Keys werden in agentischen Workflows exponiert. Three-legged OAuth = systemische Privilege Escalation.

DSGAI03

Shadow AI & Unsanctioned Data Flows

68% der Mitarbeiter nutzen GenAI ohne Genehmigung. +$670K zusätzliche Kosten pro Breach.

DSGAI04

Data, Model & Artifact Poisoning

Training Data, RAG-Quellen und Model Artifacts können manipuliert werden — mit katastrophalen Folgen.

DSGAI05

Data Integrity & Validation Failures

Halluzinierte Daten in Workflows, unvalidierte Outputs, fehlerhafte Transformationen.

DSGAI06

Tool, Plugin & Agent Data Exchange

MCP/Plugin Data Drains, unkontrollierte Tool-Payloads, Cross-Agent Data Flows.

DSGAI07

Data Governance & Classification

Lifecycle Management, Retention Policies und Data Lineage für KI-Systeme fehlen.

DSGAI08

Non-Compliance & Regulatory Violations

DSGVO Art.17 vs. Model Memory, AI Act Art.15, CRA Vulnerability Reporting.

DSGAI09

Multimodal Cross-Channel Leakage

Bild, Audio und Video als Daten-Exfiltrations-Kanal. Steganografie in multimodalen Pipelines.

DSGAI10

Synthetic Data & Anonymization Pitfalls

Re-Identifikation trotz Anonymisierung. Falsche Sicherheitsgarantien bei synthetischen Daten.

DSGAI11

Cross-Context Conversation Bleed

User A sieht Daten von User B. Fehlende Tenant Isolation in Shared-Memory-Architekturen.

DSGAI12

LLM-to-SQL/Graph Injection

Prompt → SQL via semantischer Manipulation. Schema Exposure und Data Exfiltration.

DSGAI13

Vector Store Platform Data Security

Embeddings sind NICHT anonym. Embedding Inversion rekonstruiert Originaltexte.

DSGAI14

Excessive Telemetry & Monitoring Leakage

Logs und Monitoring-Pipelines enthalten sensible Daten. Redaction vor dem Logging fehlt.

DSGAI15

Over-Broad Context Windows

Entwickler packen „alles“ in den Prompt. Data Minimization als wichtigstes Prinzip.

DSGAI16

Endpoint & Browser Overreach

Copilot liest offene Tabs, E-Mails und Dateien. Keine granularen Permission Scopes.

DSGAI17

Data Availability & Resilience Failures

RAG Outages, Pipeline Fragility, Single Points of Failure in KI-Infrastruktur.

DSGAI18

Inference & Data Reconstruction

Model Inversion rekonstruiert Trainingsdaten aus Outputs. Membership Inference verlässt Privacy.

DSGAI19

Human-in-the-Loop & Labeler Overexposure

Annotatoren und Reviewer sehen sensible Daten ohne angemessene Schutzmaßnahmen.

DSGAI20

Model Exfiltration & IP Replication

Systematisches Querying extrahiert Modell-Verhalten. IP-Diebstahl via Distillation.

DSGAI21

Disinformation via Data Poisoning

Trusted Retrieval = vergiftete Antworten. Adversariale Desinformation über RAG-Pipelines.

Mitigation Approach

Crawl → Walk → Run

Jedes der 21 Risiken enthält ein dreistufiges Mitigation-Set für unterschiedliche Reifegrade. Starten Sie dort, wo Sie stehen.

CRAWL

Foundational
→ AI Asset Inventory erstellen → Basic DLP auf GenAI Prompts/Outputs → Shadow AI Discovery starten → Acceptable Use Policy definieren → Data Classification beginnen

WALK

Intermediate
→ AI-DSPM implementieren → Embedding-Level Access Controls → Runtime Output Filtering → Agent Credential Scoping → Automated Compliance Checks

RUN

Advanced
→ Continuous Red Teaming → Embedding Inversion Monitoring → Zero-Trust Agent Architecture → Full Data Lineage & Provenance → Model Behavior Attestation

GenAI-Daten schützen — bevor es zu spät ist

21 identifizierte Risiken. Klare Mitigations für jede Reifestufe. Buchen Sie jetzt ein kostenloses Erstgespräch.

Scroll to Top
WordPress Cookie Notice by Real Cookie Banner