¿Sabes cómo se puede atacar a las inteligencias artificiales?
En estos tiempos, los organismos que se encargan de la ciberseguridad de las empresas productivas y de la ciudadanía, entre las que se encuentran las compañías de seguridad informática como TIC Defense, han alertado que la inteligencia artificial puede incrementar el número de ataques cibernéticos y el impacto que producen en las organizaciones.
No obstante, esta no sería la única preocupación, ya que puede comprometerse la propia ciberseguridad de los modelos de aprendizaje automático (Machine Learning) y de los grandes modelos de lenguaje o LLM.
Para fortalecer la ciberseguridad en todos los ámbitos de la vida diaria y de la productividad, diversas compañías han desarrollado un framework que puede sistematizar y definir las tácticas que los hackers maliciosos pueden utilizar, con el fin de diseñar y ejecutar ciberataques contra grandes modelos de lenguaje basados en inteligencia artificial.
Dicho framework se ha consolidado como una herramienta invaluable, usada por los profesionales de ciberseguridad en diversas partes del mundo. Del mismo modo, ha sido diseñado para enfocar la seguridad de las organizaciones desde el punto de vista de los ciberdelincuentes. Esto en contraste con los modelos de seguridad tradicionales, enfocados desde el punto de vista de la empresa.
El constante descubrimiento y desarrollo de sistemas basados en inteligencia artificial y su creciente implementación en el mundo corporativo, ha propiciado la creación de esta herramienta. Además, puede unificar y ordenar el conocimiento que el mundo dispone acerca de los ciberataques perpetrados contra los sistemas basados en IA.
Entre las tácticas novedosas de este framework, destacan el movimiento lateral, además del comando y control. De igual manera, tiene diversos métodos para atacar sistemas de inteligencia artificial, centrados en las intrusiones a los modelos de Machine Learning, por ejemplo: el acceso al modelo de Machine Learning y la etapa de ataque de Machine Learning.
Mediante el acceso al modelo de Machine Learning, los hackers maliciosos quieren obtener un nivel de acceso al modelo de ML del sistema que quieren atacar. De esta manera, en el que un nivel máximo de acceso, se pueda obtener las información necesaria acerca del funcionamiento del modelo en cuestión, así como sus elementos.
Los cibercriminales pueden acceder a un modelo de ML si logran entrar en el sistema donde se alberga el modelo. Un ejemplo de esto es mediante una API. También, desean tener acceso al entorno físico en donde se lleva a cabo la recolección de los datos del sistema de Machine Learning. Incluso, pueden acceder de forma indirecta, mediante la interacción con un servicio que utiliza el modelo en sus procesos.
En esta etapa del ataque, los actores de amenazas usan todo el conocimiento que tienen sobre el modelo de ML y su capacidad de acceso al sistema de inteligencia artificial, con el objetivo de personalizar el ataque y lograr sus metas.
Una de estas técnicas de ataque es la obtención de modelos que sirvan de proxy del que quieren atacar. De esta manera, se puede simular el acceso al modelo de IA en modo fuera de línea. Para lograr esto, se pueden entrenar modelos, emplear modelos ya preentrenados o replicar modelos de las API de inferencia del sistema que quieren comprometer.