적대적 공격을 방어하기 위한 StarGAN 기반의 탐지 및 정화 연구

Vol. 33, No. 3, pp. 449-458, 6월. 2023
10.13089/JKIISC.2023.33.3.449, Full Text:
Keywords: Adversarial example, generative adversarial networks, Adversarial Defense, Purification network
Abstract

인공지능은 빅데이터와 딥러닝 기술을 이용해 다양한 분야에서 삶의 편리함을 주고 있다. 하지만, 딥러닝 기술은 적대적 예제에 매우 취약하여 적대적 예제가 분류 모델의 오분류를 유도한다. 본 연구는 StarGAN을 활용해 다양한 적대적 공격을 탐지 및 정화하는 방법을 제안한다. 제안 방법은 Categorical Entropy loss를 추가한 StarGAN 모델에 다양한 공격 방법으로 생성된 적대적 예제를 학습시켜 판별자는 적대적 예제를 탐지하고, 생성자는 적대적 예제를 정화한다. CIFAR-10 데이터셋을 통해 실험한 결과 평균 탐지 성능은 약 68.77%, 평균 정화 성능은 약 72.20%를 보였으며 정화 및 탐지 성능으로 도출되는 평균 방어 성능은 약 93.11%를 보였다.

Statistics
Show / Hide Statistics

Statistics (Cumulative Counts from December 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.


Cite this article
[IEEE Style]
박성준, 최대선, 류권상, "StarGAN-Based Detection and Purification Studies to Defend against Adversarial Attacks," Journal of The Korea Institute of Information Security and Cryptology, vol. 33, no. 3, pp. 449-458, 2023. DOI: 10.13089/JKIISC.2023.33.3.449.

[ACM Style]
박성준, 최대선, and 류권상. 2023. StarGAN-Based Detection and Purification Studies to Defend against Adversarial Attacks. Journal of The Korea Institute of Information Security and Cryptology, 33, 3, (2023), 449-458. DOI: 10.13089/JKIISC.2023.33.3.449.