A medida que presenciamos el poder transformador de la IA en la reconfiguración de industrias y sociedades, se vuelve esencial abordar un desafío fundamental: la ciberseguridad en la era de la IA.
En una era dominada por los avances tecnológicos, el surgimiento de la Inteligencia Artificial (IA) ha traído consigo una nueva ola de oportunidades y desafíos. A medida que presenciamos el poder transformador de la IA en la reconfiguración de industrias y sociedades, se vuelve esencial abordar un desafío fundamental: la ciberseguridad en la era de la IA. La ciberseguridad es básicamente la gestión de los riesgos para mantener la confidencialidad, integridad y/o disponibilidad de datos y sistemas, es una gestión que debe realzarse a cualquier tipo tecnología, incluida la IA.
Los sistemas de IA no son inmunes a las vulnerabilidades. De hecho, pueden, y con seguridad, se convertirán en objetivos primordiales de ciberdelincuentes. Las características inherentes que hacen tan poderosa el uso de la IA, como lo son la autonomía, adaptabilidad y capacidad de aprendizaje, abren a su vez la puerta a posibles grietas en materia de seguridad. La IA procesa inherentemente, a través de sus procesos y algoritmos, conjuntos de datos extensos y que con frecuencia generan resultados con consecuencias intangibles y tangibles. Sin medidas sólidas de ciberseguridad, los procesos/algoritmos utilizados por la IA pueden ser manipulados o engañados, lo que trae consigo graves consecuencias. Además de las amenazas tradicionales en materia de seguridad en cualquier tipo de tecnología, se han identificado vulnerabilidades únicas para la IA, incluyendo: a) la corrupción de datos durante la etapa de entrenamiento; y b) los ataques al input para manipular los datos del output.
a) Corrupción de datos en la etapa de entrenamiento
Durante el proceso de entrenamiento de los algoritmos de IA, se presenta una amenaza latente en forma de corrupción de datos. Este fenómeno, conocido como Data Poisoning, implica la inclusión de información maliciosa en los conjuntos de datos utilizados para enseñar al sistema de IA. Como consecuencia, el modelo de IA puede aprender patrones incorrectos, comprometiendo su capacidad para tomar decisiones precisas en situaciones del mundo real.
La corrupción de datos durante la etapa de entrenamiento no solo afecta la confiabilidad de la IA, sino que también puede tener repercusiones significativas en la toma de decisiones basadas en esos modelos. Es esencial implementar medidas de ciberseguridad que prevengan, detecten y mitiguen estas amenazas desde las fases iniciales de desarrollo de la IA.
b) Ataques al Input
Otra vulnerabilidad crítica se presenta en forma de ataques al input, donde los ciberdelincuentes buscan manipular los datos de entrada para influir en los resultados de la IA. Esta estrategia busca explotar debilidades en los algoritmos, llevando a la generación de resultados no deseados o, en casos críticos, perjudiciales.
La manipulación del input puede tener consecuencias graves, especialmente en aplicaciones críticas como sistemas de conducción autónoma o diagnósticos médicos automatizados. La seguridad de la IA debe abordar activamente estos ataques, asegurando la integridad de los datos desde el origen (input) hasta la salida (ouput).
Ante estas vulnerabilidades, es imperativo adoptar un enfoque integral de ciberseguridad en el desarrollo y despliegue de sistemas de IA. Esto incluye la implementación de medidas de prevención, detección y respuesta para salvaguardar la integridad de los datos y la eficacia de los modelos de IA. Algunas de esas medidas pueden ser: verificar la integridad de los datos, realizar una autenticación de origen de los datos, implementar algoritmos para detectar anomalías durante la fase de entrenamiento, realizar pruebas periódicas de la robustez de los modelos de IA, realizar monitoreo del comportamiento, así como poner en práctica técnicas de detección de outliers para identificar inputs inesperados o maliciosos. La implementación efectiva de estas medidas de prevención, detección y respuesta contribuirá a salvaguardar la integridad de los datos y la eficacia de los modelos de IA, fortaleciendo así la seguridad global del sistema.
Jorge Andrés Beetar C., es Abogado con amplia experiencia en Derecho Corporativo, M&A, Propiedad Intelectual y Tecnologías de la Información. Actualmente se desempeña como Contracts Counsel nivel global en materia de Tecnología y Ciberseguridad para SLB.