Reservar cita
Pentesting de IA · OWASP · AI Act · NIS2

IA y LLM Penetration Testing

Simulaciones de ataque para sistemas de IA seguros y conformes con el AI Act — Prompt Injection, exfiltración de datos y exploits agénticos. Pentests reales de IA según estándares OWASP más conformidad para AI Act y NIS2.

Penetration Testing IA y LLM
YouTube · VamiSec

OWASP Top 10 para Agentic Applications: Demo en vivo

Máquinas contra máquinas — Valeri Milke y Lucas Murtfeld muestran offensive y defensive en la era de la IA. Con live hack a Prompt Injection.

Securing Agentic AI con PyTorch: Threat Modeling & Red Teaming

En la PyTorch Conference Europe 2026, Valeri Milke muestra cómo el threat modeling MAESTRO y el OWASP LLM Top 10 se combinan para sistemas de agentic AI — con una demo en vivo de un ataque de prompt injection sobre un workflow agéntico.

Las organizaciones integran IA más rápido de lo que avanzan los controles de seguridad

El pentesting de IA crea una validación robusta antes de que las vulnerabilidades se conviertan en incidentes o hallazgos de auditoría. Visibilidad en operación, protección frente a riesgos de datos y alineamiento de conformidad con EU AI Act, NIS2 y audit-readiness.

  • Nuevas clases de ataque: Prompt Injection, Data Poisoning, Model Extraction — sin precedente en seguridad clásica
  • No deterministas: los LLMs no siguen una lógica fija — análisis estático y firmas no funcionan
  • Superficie de ataque ampliada: training, inferencia, APIs, plugins, agents — cada fase es atacable
  • Presión de conformidad: EU AI Act, NIS2, DORA y RGPD exigen medidas demostrables de seguridad de IA
  • OWASP Top 10 for Agentic Applications 2026
  • Mapeado a MITRE ATLAS, NIST AI RMF, EU AI Act ready, ISO 27001 / 42001
10Categorías OWASP LLM Top 10
MITREMapeado al framework ATLAS
3Frameworks: OWASP + MITRE + NIST AI RMF
Escalada de amenazas

Seis niveles de amenaza de IA

Desde trucos sutiles de prompt hasta decisiones incontroladas — cada nivel escala el riesgo y socava conceptos de seguridad clásicos.

01

Ataques basados en prompt

Eluden la lógica de seguridad sin exploits de código.

02

Exfiltración de datos

Fuga vía respuestas, contexto o sistemas de retrieval.

03

Manipulación del modelo

Jailbreaks pese a guardrails aparentemente seguros.

04

Abuso de agentes

Instrucciones indirectas abusan de agentes y herramientas.

05

Ataques a pipelines

Ataques a pipelines de training y fine-tuning.

06

Decisiones incontroladas

Alucinaciones o sesgo llevan a decisiones incontroladas.

Los conceptos de seguridad clásicos solo funcionan de forma limitada en sistemas LLM e IA.
Superficie de ataque

Amenazas de seguridad en IA y LLM

Visión de las amenazas y vulnerabilidades típicas en sistemas IA y LLM productivos — punto de partida para pentests estructurados.

Entrada

Entrada

Prompt Injection, jailbreaks, documentos no confiables (PDF, adjuntos de correo).

Datos y contexto

Datos y contexto

Exfiltración, manipulación de RAG/embeddings, memory poisoning.

Cadena de suministro

Cadena de suministro

Modelos, LoRA, plugins, APIs — integridad sobre el ciclo de vida.

Salida

Salida

Improper Output Handling, XSS/inyección en sistemas posteriores.

Agentic

Agentic

Mal uso de herramientas, goal hijacking, permisos excesivos.

Operación

Operación

Unbounded Consumption, Shadow AI, falta de logging y aplicación de políticas.

Amenazas de seguridad en IA y LLM — visión
Visión: superficie de ataque de sistemas IA y LLM
Recurso

Nuestra guía CISO sobre seguridad de IA y Red Teaming

Encuadre práctico para CISOs y security leads — desde el panorama de amenazas hasta enfoques concretos de prueba y gobernanza.

Contenido de un vistazo

Threat landscape para LLM y agents, metodología de pentest y red team, delimitación frente al AppSec clásico, checklists para gobernanza y conversaciones de auditoría.

Descargar guía CISO
Guía CISO de Seguridad de IA y Red Teaming 2026 Cover
Organización

Las empresas se enfrentan a desafíos estructurales de seguridad de IA

Las organizaciones integran IA y LLMs rápidamente — a menudo más rápido de lo que avanzan los controles de seguridad, riesgo y gobernanza.

No quedarse quieto — pero tampoco correr

1

Visibilidad en operación

Los riesgos de IA surgen en operación — los pentests los hacen visibles y controlables.

2

Negocio y remediación

Protección frente a riesgos de datos y de negocio; visión de seguridad realista y remediación concreta.

3

Regulación

Alineamiento de conformidad: EU AI Act, NIS2 y audit-readiness.

OWASP LLM Top 10:2025

OWASP Top 10 for LLM Applications

Los 10 riesgos de seguridad más críticos para Large Language Models — base de nuestra metodología de pruebas.

LLM01:2025

Prompt Injection

Instrucciones maliciosas en entradas manipulan el modelo — ignorar reglas, divulgar datos o generar contenido dañino. Esto incluye injection directa e indirecta: instrucciones embebidas en correos, PDFs, páginas web o documentos RAG. Los filtros clásicos suelen fallar porque el ataque sucede en el contexto del lenguaje natural.

LLM02:2025

Sensitive Information Disclosure

Divulgación de datos confidenciales vía salidas o configuración — PII, secretos comerciales, datos internos del modelo. Especialmente arriesgado en sesiones largas, sin filtros de salida e indicaciones de sistema o desarrollador suministradas por error. Mitigación: minimizar contexto, eliminar patrones sensibles de logs.

LLM03:2025

Supply Chain

Modelos, datasets, librerías o plataformas comprometidos — integridad y confianza sobre el ciclo de vida de IA. Vulnerabilidades típicas: adapters sin firma, paquetes pip/npm en pipelines ML, APIs de terceros sin prueba de origen. Sin verificación de hash, versión y proveedor, la integridad en operación es difícilmente auditable.

LLM04:2025

Data & Model Poisoning

Manipulación de datos de training o fine-tuning — sesgo, backdoors, vulnerabilidades. Fuentes como crowdsourcing, web crawls o sets adversariales de fine-tuning pueden desplazar comportamiento sutilmente — hasta backdoors dependientes de trigger. Las pruebas apuntan a pipelines de datos, labeling e interfaces de re-training.

LLM05:2025

Improper Output Handling

Contenidos generados sin validación a sistemas posteriores — XSS, injections, divulgación de datos. Cualquier sistema que pase salida de modelo a SQL, shell, HTML o al navegador genera superficies de injection clásicas. Output encoding, tipado y allowlists siguen siendo obligatorios — el LLM no reemplaza la validación del lado del servidor.

LLM06:2025

Excessive Agency

Demasiada autonomía o permisos — acciones no intencionadas o dañinas. Causas frecuentes: scopes OAuth demasiado amplios, políticas genéricas «agente puede todo», falta de confirmación antes de transacciones. Verificamos qué herramientas son realmente necesarias y si el Human-in-the-Loop funciona.

LLM07:2025

System Prompt Leakage

Divulgación de prompts del sistema y lógicas internas de control — elusión de mecanismos de protección. A menudo combinación de preguntas dirigidas y leaks parciales vía formatos de salida. Recomendación: sin secretos en el prompt; mantener políticas y reglas externas y versionadas.

LLM08:2025

Vector & Embedding Weakness

Manipulación de retrieval y embeddings — respuestas falsas, fuga de datos, pérdida de control. Relevante: embeddings adversariales, poisoning del corpus, separación de namespace/tenant en bases de datos vectoriales. Los pentests incluyen consultas dirigidas y accesos de escritura a rutas de retrieval.

LLM09:2025

Misinformation

Salidas plausibles pero falsas — riesgos de seguridad, reputación y responsabilidad. Especialmente crítico cuando los usuarios incorporan respuestas sin verificación a contratos, decisiones de seguridad o conformidad. Grounding y obligaciones de citar fuentes reducen el riesgo; la formación y el proceso son parte de la defensa.

LLM10:2025

Unbounded Consumption

Inferencia incontrolada — DoS, «Denial of Wallet», robo de modelo o replicación del comportamiento. API keys sin cuotas, falta de rate limits y scraping automatizado pueden disparar costes o leer comportamiento del modelo de forma sistemática. Billing alerts, abuse detection y throttling son estándar.

Encuadre

Comparación de seguridad de aplicaciones web e IA

La seguridad de aplicaciones sigue siendo el fundamento para NIS2 y AI Act — los LLMs amplían la superficie de ataque con prompts, datos de contexto y workflows agénticos.

Seguridad clásica de aplicaciones web
  • Injection, Broken Access Control, XSS, SSRF a nivel HTTP/API
  • Sesiones stateful, validación del lado del servidor, patrones conocidos OWASP Web Top 10
  • Foco: requests, responses, lógica del lado del servidor
IA y LLM Security
  • Prompt Injection, manipulación basada en contexto, jailbreaks
  • RAG/embeddings, tool calling, cadenas multi-agente, exfiltración de datos
  • Foco: ventana de contexto, políticas, decisiones agénticas
Superficie de ataque específica de LLM e IA en resumen

OWASP ASVS 5.0 reúne ~350 Security Requirements para aplicaciones. OWASP ASVS 5.0 — página completa →

Metodología

AI Security Testing cercano a producción

Pentesting de IA con profundidad técnica — estructurado, reproducible y auditable para entornos productivos reales.

OWASP LLM Testing Guide — relaciones y encuadre
FrameworkOWASP AI Testing Guide
MetodologíaRepro/Trazable
OutputEntregables

Fuente: owasp.org/www-project-ai-testing-guide/

Agentic AI

Agentic AI: más autonomía = más superficie de ataque

Los agentes autónomos ejecutan herramientas y mantienen contexto — riesgos que las pruebas de seguridad clásicas a menudo no cubren. Referencia: OWASP Top 10 for Agentic Applications (2026).

Ataques reales contra Agentic AI Systems

  • Tool Misuse, Goal Hijacking y Memory Leaks
  • Tool Selection y Context Chaining inseguros
  • Identity Abuse (Human ↔ Agent)
  • Prompt Injection en workflows multi-agente
  • Model Confusion y riesgos de delegación
Confianza mediante Agentic AI Testing dirigido

Verificamos sistemáticamente: qué acciones pueden ejecutar los agentes, cómo se vinculan los contextos entre agentes, herramientas y workflows, y cuán seguras son las decisiones, bucles y ejecuciones de herramientas.

Riesgos de seguridad y técnicos

Hijacking, Prompt Injection, exposición de datos — superficie de ataque ampliada.

Riesgos operativos y de control

Confianza excesiva sin Human-in-the-Loop puede costar control.

Negocio y conformidad

AI Act, RGPD — gestión estructurada del riesgo de IA.

Social y ético

Desinformación, deepfakes — Secure-by-Design y pruebas regulares.

Amenazas de seguridad y vulnerabilidades en agentes de IA
Hands-on

AI y LLM Security CTF

Rutas de ataque típicas como Prompt Injection, mal uso de herramientas y agentes así como manejo inseguro de salida y datos — prácticamente comprensibles, realistas y aptas para empresa.

AI y LLM Security CTF Platform
Fuga de datos

Prevenir fuga de datos: su uso de IA bajo control seguro

La IA crea eficiencia, pero aumenta el riesgo de fuga de datos no controlada — desde RR. HH. y Finanzas hasta IP.

Fuga de datos por IA — visión
1

Captura

¿Qué datos llegan al contexto voluntaria o inconscientemente?

2

Procesamiento

¿Dónde se reflejan, cachean o reenvían los contenidos?

3

Exfiltración

¿Pueden los prompts o respuestas reconstruir campos sensibles?

4

Control

DLP, etiquetas, policy engines, logging — validar de forma medible.

GenAI Data Security — Deep Dive →
Microsoft 365

Riesgos de Microsoft Copilot

Distintas variantes de Copilot — distintos flujos de datos y necesidades de control.

Microsoft Copilot — variantes y riesgos en resumen

Microsoft 365 Copilot

Riesgo medio — fugas de datos, controles de acceso, clasificación, monitoreo.

Copilot Chat

Riesgo elevado por integración web: fuga de datos, manipulación de prompt.

Copilot Studio Agents

Riesgo alto — agentes autónomos, OAuth, terceros sin gestión de riesgos.

Offensive AI Security —
cómo piensan los atacantes.

Simulamos ataques reales contra sus sistemas de IA, LLMs y workflows agénticos — antes de que lo hagan otros.

Entregables

Lo que recibe

Risk-Prioritized Findings

Rutas de ataque reales con priorización clara por impacto de negocio y riesgo.

Reproducible Test Cases

Casos de prueba trazables, técnicamente reproducibles, y proof-of-concepts.

Concrete Mitigations

Controles de seguridad claros y medidas de remediación para Engineering y gobernanza.

Executive-Ready Reporting

Executive Summary apto para dirección, auditorías, conformidad y decisores.

Agentic AI Security Testing

Simulamos escenarios dirigidos de explotación contra arquitecturas de IA agéntica: Tool Misuse, Goal Hijacking, Memory Leaks, Prompt Injection en workflows multi-agente e Identity Abuse.

Conformidad y regulación

Los riesgos de IA no son una cuestión de futuro — surgen en operación. Nuestras pruebas crean evidencia robusta para EU AI Act, NIS2, DORA, RGPD, ISO 27001 e ISO 42001.

Vectores de ataque

Lo que probamos

Prompt InjectionJailbreakingData ExfiltrationModel ExtractionData PoisoningExplotación de alucinacionesTool Misuse y escalada de privilegiosGoal HijackingMemory PoisoningMulti-Agent ExploitationIdentity Abuse (Human ↔ Agent)RAG PoisoningAPI Authentication BypassRate Limiting Evasion
Metodología

¿Qué hace un pentest de IA y LLM?

01

Model Discovery y Recon

Análisis de todos los endpoints de IA, APIs y datos de contexto para hacer visible la superficie de ataque completa.

02

Prompt Injection y Jailbreak

Simulación dirigida de entradas que pueden inducir a los modelos a acciones no autorizadas.

03

Ataques de IA agéntica

Pruebas contra agentes autónomos, dirección de workflows y encadenamiento de contexto.

04

Riesgos de datos y API

Detección de fugas de datos, APIs no aseguradas y liberaciones sensibles de contexto.

05

Del framework a la implementación

Primero entender, luego probar, luego regular, luego proteger de forma duradera. Assess → Test → Govern → Protect.

Evaluación de riesgo

OWASP AIVSS — evaluación de IA agéntica

CVSS por sí solo no es suficiente — AIVSS combina CVSS v4.0 con AARS (Agentic Risk Score). Decisiones cualitativas: Defer, Scheduled, Out-of-Cycle, Immediate.

CVSS v4.0Base Scoring
AARSAgentic Risk Score
ReportingAudit-ready Deliverables
Red Teaming

GenAI Red Teaming

01

Discover

Mapear superficies, modelos, herramientas, fuentes de datos.

02

Attack

Escenarios de OWASP LLM/Agentic, casos de abuso a medida.

03

Measure

AIVSS, pasos de reproducción, workshop de severity.

Assess → Test → Govern → Protect —
su ciclo de vida AI Security.

Primero entender, luego probar, luego regular, luego proteger de forma duradera.

Regulación y evidencia

De sistemas de IA seguros a conformidad apta para auditoría

Las vulnerabilidades web clásicas se encuentran con riesgos específicos de IA: Prompt Injection, Data y Model Poisoning, rutas de herramientas y RAG inseguras. Nuestros pentests y revisiones orientadas a OWASP entregan evidencia reproducible — adecuada a lo que las conversaciones con supervisión y auditoría esperan bajo «robustez», «cybersecurity» y gestión de riesgos.

EU AI Act

Obligaciones que requieren profundidad técnica

Para sistemas de IA de alto riesgo, los análisis de riesgo documentados y las medidas técnicas eficaces son obligatorios. Los hallazgos de pentest sustentan el Art. 15 (cybersecurity, robustez) y refuerzan la gestión de riesgos según el Art. 9. Las obligaciones de transparencia y datos (Art. 10, 13) se sustentan con evidencia clara sobre flujos de datos, logging y cadena de suministro del modelo.

  • Art. 9 — sistema de gestión de riesgos: continuo, documentado, vinculado a la clase de riesgo
  • Art. 10 — datos y gobernanza: calidad, monitoreo de sesgo, datos representativos de training y operación
  • Art. 15 — accuracy, robustness, cybersecurity: simulaciones de ataque dirigidas y PoCs duros
NIS2

Servicios críticos y obligaciones reforzadas de evidencia

Los componentes de IA en áreas críticas y esenciales están sujetos a obligaciones reforzadas de seguridad y evidencia. Las verificaciones regulares de seguridad, el manejo de vulnerabilidades y los artefactos de riesgo robustos son parte del horizonte de expectativa.

  • Verificaciones regulares de seguridad de la infraestructura IA
  • Artefactos de riesgo demostrables para conversaciones con supervisión
  • Integración en procesos NIS2 de Incident Response
ISO 42001

Sistema de gestión de IA (AIMS)

El sistema de gestión de IA exige seguridad operativa y evaluación continua. Las pruebas técnicas (pentest, Red Team, escenarios LLM/Agent dirigidos) entregan inputs medibles para control, mejora y conversaciones de certificación.

  • Inputs medibles para el sistema de control AIMS
  • Combinable con ISO 27001 para evidencias compartidas
  • Base para conversaciones de certificación y auditorías
DORA

Sector financiero — tratar la IA como TI productiva

La superficie de ataque TIC crece con cada interfaz de chat, copilot y workflow autónomo. DORA exige pruebas sistemáticas de la resiliencia digital; desde la perspectiva de supervisión, los sistemas asistidos por IA están sujetos a los mismos estándares que la TI clásica.

  • Gestión de riesgos TIC incl. cadenas de suministro IA y outsourcing
  • Ciclos de prueba y revisión demostrables, no solo medidas puntuales
  • Hallazgos documentables para conversaciones de auditoría interna y supervisión
FAQ

Preguntas frecuentes

Proteja sus sistemas de IA ahora

Contáctenos para un LLM Security Assessment individual — orientado a la práctica, audit-ready y adaptado a sus requisitos.

Reservar consulta inicial