Identificación de ejemplos adversarios en modelos de Machine Learning que detectan malware para Android
Cargando...
Autores
Director
Tipo de contenido
Document language:
Español
Fecha
Título de la revista
ISSN de la revista
Título del volumen
Documentos PDF
Resumen
Este documento muestra un método computacional para identificar entradas adversarias en Machine Learning, enfocado en la detección de Malware para Android. En primer lugar, se creó un conjunto de datos de malware, con el cual se entrenaron cuatro modelos de machine learning, estos cuatro modelos son una red neuronal, un Autoencoder, SVM y regresión logística; todos ellos tienen el objetivo de aprender a clasificar aplicaciones para Android entre beningware o malware. En segundo lugar, se ejecutaron diez ataques adversarios de evasión contra cada uno de esos modelos de machine learning, los cuales son FGSM, BIM, CW (L2 y Linf), ZOO, HopSkip Jump, JSMA, Deepfool, PGD y Boundary Attack. La implementación de estos ataques permitió analizar la vulnerabilidad de estos modelos, debido a que logra alterar la clasificación que hace cada modelo.
En tercer lugar, se propone un método sencillo para mitigar los efectos de dicha vulnerabilidad, el cual tiene el enfoque de detectar ejemplos adversarios previo a la entrada a cada modelo de machine learning; una vez detectados son excluidos y se evalúa de nuevo las métricas de rendimiento, como la evaluación cuantitativa de la capacidad para clasificar en cada modelo de machine learning. Finalmente, en los resultados se resalta la importancia de algunas características estáticas y dinámicas frecuentes en muestras de malware. (Texto tomado de la fuente).
Abstract
This document presents a computational method for identifying adversarial inputs in Machine Learning, focused on Android malware detection. First, a malware dataset was created, with which four machine learning models were trained. These four models are a neural network, an autoencoder, an SVM, and logistic regression; all of them aim to learn how to classify Android applications as either beningware or malware. Second, ten adversarial evasion attacks were run against each of these machine learning models: FGSM, BIM, CW (L2 and Linf), ZOO, HopSkip Jump, JSMA, Deepfool, PGD, and Boundary Attack. The implementation of these attacks allowed us to analyze the vulnerability of these models, as it is able to alter the classification performed by each model.
Third, a simple method is proposed to mitigate the effects of this vulnerability. This method focuses on detecting adversarial examples prior to entering each Machine Learning model. Once detected, they are excluded, and performance metrics are re-evaluated, such as a quantitative evaluation of the classification capacity of each Machine Learning model. Finally, the results highlight the importance of some common static and dynamic characteristics in malware samples.
Palabras clave propuestas
Descripción
ilustraciones, diagramas, fotografías

