질의 효율적인 의사 결정 공격을 통한 오디오 적대적 예제 생성 연구

Vol. 32, No. 1, pp. 89-98, 2월. 2022
10.13089/JKIISC.2022.32.1.89, Full Text:
Keywords: Adversarial Examples, Speech command classification, Decision-based attack
Abstract

딥러닝 기술이 여러 분야에 적용되면서 딥러닝 모델의 보안 문제인 적대적 공격기법 연구가 활발히 진행되었다. 적대적 공격은 이미지 분야에서 주로 연구가 되었는데 최근에는 모델의 분류 결과만 있으면 공격이 가능한 의사 결 정 공격기법까지 발전했다. 그러나 오디오 분야의 경우 적대적 공격을 적용하는 연구가 비교적 더디게 이루어지고 있는데 본 논문에서는 오디오 분야에 최신 의사 결정 공격기법을 적용하고 개선한다. 최신 의사 결정 공격기법은 기 울기 근사를 위해 많은 질의 수가 필요로 하는 단점이 있는데 본 논문에서는 기울기 근사에 필요한 벡터 탐색 공간 을 축소하여 질의 효율성을 높인다. 실험 결과 최신 의사 결정 공격기법보다 공격 성공률을 50% 높였고, 원본 오디 오와 적대적 예제의 차이를 75% 줄여 같은 질의 수 대비 더욱 작은 노이즈로 적대적 예제가 생성 가능함을 입증하 였다.

Statistics
Show / Hide Statistics

Statistics (Cumulative Counts from December 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.


Cite this article
[IEEE Style]
서성관, 문현준, 손배훈, 윤주범, "질의 효율적인 의사 결정 공격을 통한 오디오 적대적 예제 생성 연구," Journal of The Korea Institute of Information Security and Cryptology, vol. 32, no. 1, pp. 89-98, 2022. DOI: 10.13089/JKIISC.2022.32.1.89.

[ACM Style]
서성관, 문현준, 손배훈, and 윤주범. 2022. 질의 효율적인 의사 결정 공격을 통한 오디오 적대적 예제 생성 연구. Journal of The Korea Institute of Information Security and Cryptology, 32, 1, (2022), 89-98. DOI: 10.13089/JKIISC.2022.32.1.89.