이미지 분류를 위한 오토인코더 기반 One-Pixel 적대적 공격 방어 기법

Vol. 33, No. 6, pp. 1087-1098, 12월. 2023
JKIISC.2023.33.6.1087, Full Text:
Keywords: Adversarial attack, One-Pixel Attack, Autoencoder, Deep Neural Networks, Differential Evolution
Abstract

인공지능 기술의 급격한 발전으로 다양한 분야에서 적극적으로 활용되고 있으나, 이와 함께 인공지능 기반 시스템에 대한 공격 위협이 증가하고 있다. 특히, 딥러닝에서 사용되는 인공신경망은 입력 데이터를 고의로 변형시켜 모델의 오류를 유발하는 적대적 공격에 취약하다. 본 연구에서는 이미지에서 단 하나의 픽셀 정보만을 변형시킴으로써 시각적으로 인지하기 어려운 One-Pixel 공격으로부터 이미지 분류 모델을 보호하기 위한 방법을 제안한다. 제안된 방어 기법은 오토인코더 모델을 이용하여 분류 모델에 입력 이미지가 전달되기 전에 잠재적 공격 이미지에서 위협 요소를 제거한다. CIFAR-10 데이터셋을 이용한 실험에서 본 논문에서 제안하는 오토인코더 기반의 One-Pixel 공격 방어 기법을 적용한 사전 학습 이미지 분류 모델들은 기존 모델의 수정 없이도 One-Pixel 공격에 대한 강건성이 평균적으로 81.2% 향상되는 결과를 보였다.

Statistics
Show / Hide Statistics

Statistics (Cumulative Counts from December 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.


Cite this article
[IEEE Style]
심정현 and 송현민, "Autoencoder-Based Defense Technique against One-Pixel Adversarial Attacks in Image Classification," Journal of The Korea Institute of Information Security and Cryptology, vol. 33, no. 6, pp. 1087-1098, 2023. DOI: JKIISC.2023.33.6.1087.

[ACM Style]
심정현 and 송현민. 2023. Autoencoder-Based Defense Technique against One-Pixel Adversarial Attacks in Image Classification. Journal of The Korea Institute of Information Security and Cryptology, 33, 6, (2023), 1087-1098. DOI: JKIISC.2023.33.6.1087.