공개 딥러닝 라이브러리에 대한 보안 취약성 검증

Vol. 29, No. 1, pp. 117-125, 1월. 2019
10.13089/JKIISC.2019.29.1.117, Full Text:
Keywords: Adversarial attack, MNIST, Deep Learning, Security, Autoencoder, Convolution Neural Network
Abstract

최근 다양한 분야에서 활용중인 딥러닝은 적대적 공격 가능성의 발견으로 위험성이 제기되고 있다. 본 논문에서는딥러닝의 이미지 분류 모델에서 악의적 공격자가 생성한 적대적 샘플에 의해 분류 정확도가 낮아짐을 실험적으로 검증하였다. 대표적인 이미지 샘플인 MNIST데이터 셋을 사용하였으며, 텐서플로우와 파이토치라이브러리를 사용하여만든 오토인코더 분류 모델과 CNN(Convolution neural network)분류 모델에 적대적 샘플을 주입하여 탐지정확도를 측정한다. 적대적 샘플은 MNIST테스트 데이터 셋을 JSMA(Jacobian-based Saliency MapAttack)방법으로 생성한 방법과 FGSM(Fast Gradient Sign Method)방식으로 변형하여 생성하였으며, 분류모델에 주입하여 측정하였을 때 최소 21.82%에서 최대 39.08%만큼 탐지 정확도가 낮아짐을 검증하였다.

Statistics
Show / Hide Statistics

Statistics (Cumulative Counts from December 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.


Cite this article
[IEEE Style]
정재한 and 손태식, "Security Vulnerability Verification for Open Deep Learning Libraries," Journal of The Korea Institute of Information Security and Cryptology, vol. 29, no. 1, pp. 117-125, 2019. DOI: 10.13089/JKIISC.2019.29.1.117.

[ACM Style]
정재한 and 손태식. 2019. Security Vulnerability Verification for Open Deep Learning Libraries. Journal of The Korea Institute of Information Security and Cryptology, 29, 1, (2019), 117-125. DOI: 10.13089/JKIISC.2019.29.1.117.