얼굴 인식 모델에 대한 질의 효율적인 블랙박스 적대적 공격 방법

Vol. 32, No. 6, pp. 1081-1090, 12월. 2022
10.13089/JKIISC.2022.32.6.1081, Full Text:
Keywords: Black-box Attack, Adversarial attack, Face recognition model
Abstract

얼굴 인식 모델은 스마트폰의 신원 인식에 활용되는 등 많은 사용자에게 편의를 제공하고 있다. 이에 따라 DNN 모델의 보안성 검토가 중요해지고 있는데 DNN 모델의 잘 알려진 취약점으로 적대적 공격이 존재한다. 적대적 공격은 현재 DNN 모델의 인식 결과만을 이용하여 공격을 수행하는 의사결정 공격기법까지 발전하였다. 그러나 기존 의사결정 기반 공격기법[14]은 적대적 예제 생성 시 많은 질의 수가 필요한 문제점이 있다. 특히, 기울기를 근사하는데 많은 질의 수가 소모되는데 정확한 기울기를 구할 수 없는 문제가 존재한다. 따라서 본 논문에서는 기존 의사결정 공격기법의 기울기를 근사할 때 소모되는 질의 수 낭비를 막기 위해서 직교 공간 샘플링과 차원 축소 샘플링 방법을 제안한다. 실험 결과 섭동의 크기가 L2 distance 기준 약 2.4 적은 적대적 예제를 생성할 수 있었고 공격 성공률의 경우 약 14% 향상할 수 있었다. 실험 결과를 통해 본 논문에서 제안한 적대적 예제 생성방법의 같은 질의 수 대비 공격 성능이 우수함을 입증한다.

Statistics
Show / Hide Statistics

Statistics (Cumulative Counts from December 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.


Cite this article
[IEEE Style]
서성관, 손배훈, 윤주범, "얼굴 인식 모델에 대한 질의 효율적인 블랙박스 적대적 공격 방법," Journal of The Korea Institute of Information Security and Cryptology, vol. 32, no. 6, pp. 1081-1090, 2022. DOI: 10.13089/JKIISC.2022.32.6.1081.

[ACM Style]
서성관, 손배훈, and 윤주범. 2022. 얼굴 인식 모델에 대한 질의 효율적인 블랙박스 적대적 공격 방법. Journal of The Korea Institute of Information Security and Cryptology, 32, 6, (2022), 1081-1090. DOI: 10.13089/JKIISC.2022.32.6.1081.