악성코드 변종 분석을 위한 AI 모델의 Robust 수준 측정 및 개선 연구

Vol. 32, No. 5, pp. 997-1008, 10월. 2022
10.13089/JKIISC.2022.32.5.997, Full Text:
Keywords: Artificial intelligence, robustness, Adversarial attack
Abstract

오늘날 AI(Artificial Intelligence) 기술은 악성코드 분야를 비롯하여 다양한 분야에서 광범위하게 연구되고 있다. 중요한 의사결정 및 자원을 보호하는 역할에 AI 시스템을 도입하기 위해서는 신뢰할 수 있는 AI 모델이어야 한다. 학습 데이터셋에 의존적인 AI 모델은 새로운 공격에 대해서도 견고한지 확인이 필요하다. 공격자는 악성코드를 새로 생성하기보단, 기존에 탐지되었던 악성코드의 변종을 대량 생산하여 공격에 성공하는 악성코드를 탐색다. AI 모델의 Misclassification을 유도하는 Adversarial attack과 같이 대부분의 공격은 기존 공격에 약간에 변형을 가해 만든 공격들이다. 이러한 변종에도 대응 가능한 Robust한 모델이 필요하며, AI 평가지표로 많이 사용되는 Accuracy, Recall 등으로는 모델의 Robustness 수준을 측정할 수 없다. 본 논문에서는 Adversarial attack 중 하나인 C&W attack을 기반으로 Adversarial sample을 생성하여 Robustness 수준을 측정하고 Adversarial training 을 통해 Robustness 수준을 개선하는 방법을 실험한다. 본 연구의 악성코드 데이터셋 기반 실험을 통해 악성코드 분야에서 해당 제안 방법의 한계 및 가능성을 확인하였다.

Statistics
Show / Hide Statistics

Statistics (Cumulative Counts from December 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.


Cite this article
[IEEE Style]
이은규, 정시온, 이현우, 이태진, "악성코드 변종 분석을 위한 AI 모델의 Robust 수준 측정 및 개선 연구," Journal of The Korea Institute of Information Security and Cryptology, vol. 32, no. 5, pp. 997-1008, 2022. DOI: 10.13089/JKIISC.2022.32.5.997.

[ACM Style]
이은규, 정시온, 이현우, and 이태진. 2022. 악성코드 변종 분석을 위한 AI 모델의 Robust 수준 측정 및 개선 연구. Journal of The Korea Institute of Information Security and Cryptology, 32, 5, (2022), 997-1008. DOI: 10.13089/JKIISC.2022.32.5.997.