top of page
Buscar

1. Introducción a la Seguridad en IA

  • 3 nov 2025
  • 2 Min. de lectura

HECHO POR JOSUÉ.

La inteligencia artificial (IA) ha dejado de ser una tecnología futurista para convertirse en un componente central de sistemas críticos en sectores como la banca, la salud, la movilidad y la defensa. Sin embargo, esta integración masiva conlleva nuevos y complejos riesgos de seguridad. La Seguridad en IA es la disciplina que se encarga de proteger los sistemas de inteligencia artificial para garantizar su confiabilidad, robustez y funcionamiento ético, no solo de las amenazas cibernéticas tradicionales, sino de vulnerabilidades inherentes a los propios modelos de IA. 


Vulnerabilidades en Sistemas de IA: Análisis de cómo los modelos de IA pueden ser explotados por actores maliciosos. 

Los modelos de IA no son "cajas mágicas" infalibles. Presentan vulnerabilidades específicas que los atacantes pueden explotar: 

- Dependencia de datos: Un modelo es tan bueno (y tan seguro) como los datos con los que fue entrenado. Si los datos son sesgados, incompletos o maliciosos, el modelo heredará estos problemas. 

- Complejidad e impredecibilidad: Los modelos complejos, como las redes neuronales profundas, pueden ser difíciles de interpretar. Un pequeño cambio en la entrada, imperceptible para un humano, puede causar un error de clasificación catastrófico. 

- Falta de robustez inherente: A diferencia del software tradicional que sigue reglas lógicas predefinidas, los modelos de ML aprenden patrones estadísticos. Estos patrones pueden ser "engañados" mediante técnicas específicas. 



VIDEO: Vulnerabilidades de la IA




Áreas de Riesgo: Modelos de machine learning, procesamiento de datos y toma de decisiones automatizada. 

Las áreas de riesgo más críticas se concentran en las tres fases clave del ciclo de vida de la IA: 

1.  Modelos de Machine Learning: El núcleo del sistema. Pueden ser robados (extracción), replicados o manipulado su comportamiento. 

Un competidor hace preguntas todo el día a ChatGPT y con las respuestas crea su propia copia barata. 

2.  Procesamiento de Datos: La fase de entrenamiento e inferencia. Los datos de entrenamiento pueden ser envenenados, y los datos de entrada durante el uso (inferencia) pueden ser alterados para evadir el modelo. 

Para engañar al filtro de spam, un correo malicioso cambia la palabra "oferta" por "0fert4". El sistema no lo detecta, pero el humano lo lee igual. 

3.  Toma de Decisiones Automatizada: La consecuencia última. Un ataque exitoso puede llevar a un vehículo autónomo a no detectar una señal de stop, a un sistema de crédito a denegar una solicitud legítima, o a un filtro de spam a dejar pasar un correo malicioso. 

Un ataque hace que la IA rechace solicitudes de préstamo de personas de una ciudad específica, discriminándolas injustamente. 


Estas vulnerabilidades se pueden condensar y simplificar aún más en las siguientes principales categorías:



 
 
 

Comentarios


GRACIAS POR SU VISITA EN ESTE BLOG

bottom of page