7 WAY SECURITY

7 WAY SECURITY

(+57) 3007265036
Email: [email protected]

7WAY SECURITY
Bogotá, Cra 49 # 128B - 31 - My desk - Of. 201

COMUNICATE CON UNO DE NUESTROS EXPERTOS: 3007265036
  • HOME
  • NOSOTROS
  • SECTORES
    • FINANCIERO
    • ENERGÍA
    • TELECOMUNICACIONES
    • SALUD
    • TRANSPORTE
  • SERVICIOS
    • OFFENSIVE
      • Ethical Hacking
      • Red Team Testing
      • 7Way Ops
      • Pentesting on Demand
      • Anguila
      • Pruebas Certificadas
    • DEFENSIVE
      • Entrenamiento
    • INTELLIGENCE
      • Cattleya
      • Threat Hunting
    • INCIDENT RESPONSE
      • Respuesta a Incidentes
      • Investigaciones Digitales
      • CSIRT 711
    • CONSULTANCY
      • Black Team
  • ÚNETE AL EQUIPO
    • Oferta Red Team
    • Oferta Blue Team
    • Oferta Black Team
    • Oferta Orange Team
    • Oferta Green Team
    • Oferta Practicantes
    • Oferta Gray Team
    • Oferta White Team
  • PRECIOS
  • CONTACTO
  • BLOG
  • Home
  • Ciberseguridad
  • ¿Es vulnerable tu IA? riesgos del prompt Injection y más
julio 16, 2025

¿Es vulnerable tu IA? riesgos del prompt Injection y más

0
Giovanni Cruz
Giovanni Cruz
viernes, 06 junio 2025 / Published in Ciberseguridad, Inteligencia de Amenazas, Monitoreo de Seguridad, Pruebas de Intrusión avanzadas, Seguridad Defensiva, Technology, Threat Intelligence

¿Es vulnerable tu IA? riesgos del prompt Injection y más

Es_vulnerable_tu_IA?_riesgos_del_prompt_Injection_y_más

Cada vez se vuelve más común el desarrollo de aplicaciones e integraciones con diferentes tipos de Inteligencias Artificiales (IAs), el consumo de productos o generación de proyectos basados en este tipo de tecnologías y la integración de diferentes elementos con IAs en los ambientes corporativos, con el fin de automatizar u optimizar procesos, sin embargo, como cualquier otra tecnología emergente, es necesario tener en cuenta las vulnerabilidades que el uso de estas soluciones puede introducir a nuestro ecosistema tecnológico, junto al impacto que esto puede crear, dependiendo del tipo de información que se maneja en los proyectos relacionados al uso de IAs.

Desde 7 Way Security (7WS), hemos estado trabajando en la identificación de vulnerabilidades relacionadas a tecnologías IA, para poder ofrecer una capa de conocimiento sobre estos desarrollos para tu empresa, con el fin de proteger tu compañía con nuestras capacidades de manera proactiva y por eso aquí queremos compartir contigo algunos riesgos y vulnerabilidades comunes en soluciones con IAs.

Inyecciones en Large Language Model (LLM) (Prompt Injection)

La técnica de manipulación de entradas que es conocida como ‘prompt injection’ permite a los atacantes modificar el comportamiento de un LLM sin acceder a su código. En el documento OWASP Top 10 for LLM Applications 2025 se identifica este riesgo en la posición número 1 de este Top 10 y se presentan diferentes escenarios de ataque como los mostrados a continuación.

Las posibilidades del ataque pueden suceder de manera directa o indirecta. En la primera se realiza una interacción directa con el prompt para lograr hacer una explotación de la vulnerabilidad, mientras que en la segunda es necesario inyectar instrucciones maliciosas en fuentes externas que el LLM procesa.

La explotación de estos escenarios puede permitir extraer información del contexto de ejecución o ejecutar tareas no autorizadas. Este tipo de ataques ha sido reportado en diferentes tipos de bots que ya se encuentran en producción y muchas veces atendiendo requerimientos de clientes.

Realización de entrenamiento de modelos con Datos Sensibles

Modelos mal entrenados y con vulnerabilidades, pueden permitir la filtración de información sensible si fueron alimentados con datos sin anonimizar. Desde 7WS se identificó que investigadores de la Universidad de Massachusetts Amherst y la Universidad de Massachusetts Lowell lograron según un estudio confirmar diferentes debilidades entre las cuales estaba la posibilidad de extraer información personal de modelos entrenados con historiales clínicos reales.

Referencia:  https://arxiv.org/pdf/2104.08305

Este tipo de ataques, conocidos como “membership inference attacks” o ataques de inferencia de pertenencia, permiten determinar si los datos de un individuo específico fueron utilizados durante el entrenamiento de un modelo.

Por lo tanto, aunque la inteligencia artificial ofrece enormes beneficios en el análisis de datos, también es crucial abordar y gestionar adecuadamente los riesgos asociados con la privacidad y la seguridad de la información personal antes de entrenar los modelos.

Adicionalmente esto nos debe llevar a pensar que nuestros datos en muchos de los modelos gratuitos se usan para seguir entrenando las IAs… ¿qué datos estamos entregando a estos modelos? en algún momento puede existir un compromiso de ellos? ¿Y por lo tanto un compromiso de mi información sensible?

Cadena de Suministro

Como en cualquier aplicación o software, los elementos que la componen pueden ser vulnerables y desde esa perspectiva pueden generar vulnerabilidades para la aplicación, la falta de verificación en los componentes y modelos utilizados puede introducir riesgos de seguridad.

Cuando hablamos de Machine Learning debemos tener en cuenta que los riesgos se pueden extender a modelos previamente entrenador por terceros y datos usados por ellos, por eso el OWASP Top 10 LLM colca este riesgo como tercero en su Top 10, porque es complejo poder analizar a nivel de seguridad los diferentes elementos que pueden llegar a ser usados en la construcción de aplicaciones con IAs dentro de su cadena de suministro.

Modelo previamente entrenados, una librería en Python vulnerable o el compromiso de un tercero que utiliza métodos como LoRA (Low-Rank Adaptation), como lo sucedido con Hugging Face, demuestra la importancia y relevancia de conocer con claridad la seguridad de la cadena de compromiso, para que nuestras aplicaciones de IA no sean comprometidas.

Vulnerabilidades más Comunes

Es posible por ejemplo identificar el uso de HTTP sin ninguna protección en la capa de transporte para la integración de APIs entre LLMs y su interacción con otros programas, permitiendo la intercepción de tráfico y con él la posibilidad de la manipulación de peticiones e información.

Las inyecciones SQL son otra posibilidad, solamente que en vez del uso de un campo de autenticación es posible realizar dicha interacción por medio de un prompt en la aplicación. Aunque la vulnerabilidad de fondo sigue siendo un incorrecto manejo de variables por la aplicación, este escenario se vuelve más frecuente con la integración de LLMs a diferentes tipos de aplicaciones.

La posibilidad de identificar secretos dentro del código de la aplicación a la que se conecta la LLM es normal, porque elementos como tokens de APIs, credenciales de la base de datos o endpoints se pueden encontrar en los scripts de integración, al ser elementos necesarios para la comunicación entre las partes. Una vulnerabilidad muy común que se vuelve parte del ecosistema de integración de LLMs.

El inadecuado manejo de permisos puede permitir el acceso a datos de otros clientes si no existe algún tipo de aislamiento del tenant, todo usando inyecciones a nivel de prompts. El incorrecto manejo de permisos puede permitir el consumo de cualquier usuario de datos pertenecientes a otros perfiles.

Consumo sin Restricciones

Dentro de este riesgo es posible identificar diferentes tipos de vulnerabilidades que permiten la manipulación de las entradas sin restricción alguna. El impacto de la explotación de este tipo de vulnerabilidades puede permitir la interrupción de los servicios, el consumo excesivo de recursos, que puede llevar dependiendo del modelo de implementación de la aplicación a un agotamiento de recursos financieros, o el robo de propiedad intelectual clonando el comportamiento del modelo, dependiendo del tipo de vulnerabilidad identificado y explotado en un escenario predeterminado.

Las vulnerabilidades comunes para este tipo de riesgo son:

  • Inundación de entradas de longitud variable
  • Denial of Wallet; donde un ataque inicia un gran volumen de operaciones y explota el costo por uso del modelo en servicios de IA basados en la nube, lo que los lleva a cargas financieras que no son sostenibles en el proveedor de servicios
  • Overflow de Entradas Continuas, el cual permite llevar al uso de recursos computacionales de manera excesiva, lo que puede resultar en la degradación del servicio y en fallas operacionales.
  • Peticiones que generan consumos intensos, no por estar enviándolas de manera continua, si no por su construcción pensada en la creación de patrones que requieran gran procesamiento.
  • Replicación funcional del modelo, por medio de múltiples peticiones se puede hacer el entrenamiento de otro modelo con la información ya recolectada, haciendo uso de un consumo no restringido en el modelo original.

Estos son solo algunos ejemplos de las múltiples vulnerabilidades que pueden ser explotadas en este escenario de riesgo, donde la validación de entradas, el manejo de umbrales adecuados de peticiones y el uso de sandboxes son algunas de las alternativas de mitigación.

Y aunque aquí solamente hacemos una referencia algunos de los riesgos y vulnerabilidades más comunes en LLMs, IAs y MCPs, nuestro equipo de pentesters se ha preparado para además de evaluar el OWASP TOP 10 para LLMs, muchos otros escenarios y vulnerabilidades que pueden llegar a existir en las integraciones, aplicaciones y modelos que tú puedes estar usando en tu organización, estás seguro que alguno de estos elementos descritos en este documento no se encuentran en tus aplicaciones creadas o integradas con IAs?

 

🛡️¿Tu IA resistiría un ataque real?
Descubre cómo detectar vulnerabilidades como prompt injection, model leaks y más en nuestro webinar gratuito:

👉Ver “La paradoja de la IA en ciberseguridad”
Detecta las brechas antes de que lo hagan otros. El Pentesting en IA ya no es opcional.

Ver el Webinar
Giovanni Cruz

Co-founder 7WAY SECURITY

Giovanni Cruz

Comparte el conocimiento:
Tagged under: amenazas IA, ciberseguridad, Ciberseguridad IA, prompt injection, riesgos IA, vulnerabilidades IA

What you can read next

Blue_Team_Ataque_Browser_in_the_middle_7way_security
Ataques Browser-In-The-Middle: Definición, diferencias y medidas de protección
Ciberseguridad_y_Marca_Crisis_Online
¿Tu marca está siendo clonada? Reputación en riesgo
Blog_Vulnerabilidad_Fortinet_Leak_7way_security
Fortinet en Riesgo: Vulnerabilidades sin parchear y filtración de datos crítica

BUSCAR

ARTÍCULOS RECIENTES

  • Blue_Team_Ataque_Browser_in_the_middle_7way_security

    Ataques Browser-In-The-Middle: Definición, diferencias y medidas de protección

    Las principales campañas que representan una am...
  • Blog_Gray_Team_El_producto_eres_tu_ciberseguridad_7way_security

    Si es gratis en Internet, el producto eres tú

    Al adentrarnos en el mundo digital, rara vez re...
  • Black_Team_Gestion_de_riesgos_7way_security

    Gestión de Riesgos: El Pilar del éxito empresarial

    La gestión de riesgos debería ser una de las pr...
  • IA_en_Ciberseguridad_5_Desafíos_legales_urgentes_para_empresas_7way_security

    IA en Ciberseguridad: 5 desafíos legales urgentes para empresas

    ¿Tu estrategia de IA está a punto de convertirs...
  • APT_y_Empresas_Identificando_los_riesgos_del_enemigo_silencioso_7way_security

    APT y Empresas: Identificando los riesgos del enemigo silencioso

    La tecnología está entrelazada con cada aspecto...

ARCHIVOS

  • julio 2025
  • junio 2025
  • mayo 2025
  • abril 2025
  • marzo 2025
  • febrero 2025
  • enero 2025
  • noviembre 2024
  • octubre 2024
  • septiembre 2024
  • agosto 2024
  • julio 2024
  • abril 2021

CATEGORÍAS

  • Blue Team
  • Ciberseguridad
  • Desarrollo
  • Desarrollo seguro
  • Documentación
  • Hardering
  • Inteligencia de Amenazas
  • Monitoreo de Seguridad
  • MVP
  • Networking
  • Pentesting
  • Pruebas de Intrusión avanzadas
  • Respuesta a Incidentes
  • Seguridad Defensiva
  • Startup
  • Technology
  • Threat Intelligence

TEMAS DE INTERÉS

  • Acceder
  • Feed de entradas
  • Feed de comentarios
  • WordPress.org

SOLICITAR ASESORÍA DE NUESTROS EXPERTOS

Por favor, diligencie este formulario y nos podremos en contacto lo antes posible

7WAY SECURITY

CIBERSECURITY THE RIGHT WAY.

POLITICA PARA EL MANEJO DE DATOS PERSONALES

CONTÁCTENOS

Bogotá: Cra 49 # 128b 31 Oficina 201 – (601) 805 24 02

Whatsapp: (+57) 300 726 5036

Correo: [email protected]

Business Developer: [email protected]

Hojas de vida: [email protected]

 

 

  • GET SOCIAL

© 2022 All rights reserved. 7WAY SECURITY.

TOP
es_COES
en_USEN es_COES