활성화 함수 근사를 통한 지수함수 기반 신경망 마스킹 기법

Vol. 33, No. 5, pp. 761-773, 10월. 2023
10.13089/JKIISC.2023.33.5.761, Full Text:
Keywords: AI, Activation Function, Deep Learning, Side channel analysis, Masking
Abstract

본 논문에서는 딥러닝 분야에서 사용되는 신경망 모델, 그중에서도 다중 계층 퍼셉트론 모델에 사용되는 지수함수 기반의 활성화 함수를 근사 함수로 대체하고, 근사 함수에 마스킹을 적용함으로써 신경망 모델의 추론 과정의 전력 분석 저항성을 높이는 방법을 제안한다. 이미 학습된 값을 사용하여 연산하는 인공 신경망의 추론 과정은 그 특성상 가중치나 편향 등의 내부 정보가 부채널 공격에 노출될 위험성이 있다. 다만 신경망 모델의 활성화 함수 계층에서는 매우 다양한 함수를 사용하고, 특히 지수함수 기반의 활성화 함수에는 마스킹 기법 등 통상적인 부채널 대응기법을 적용하기가 어렵다. 따라서 본 연구에서는 지수함수 기반의 활성화 함수를 단순한 형태로 근사하여도 모델의 치명적인 성능 저하가 일어나지 않음을 보이고, 근사 함수에 마스킹을 적용함으로써 전력 분석으로부터 안전한 순방향 신경망 모델을 제안하고자 한다.

Statistics
Show / Hide Statistics

Statistics (Cumulative Counts from December 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.


Cite this article
[IEEE Style]
김준섭, 홍석희, 김희석, 박동준, 김규상, 박수진, "Masking Exponential-Based Neural Network via Approximated Activation Function," Journal of The Korea Institute of Information Security and Cryptology, vol. 33, no. 5, pp. 761-773, 2023. DOI: 10.13089/JKIISC.2023.33.5.761.

[ACM Style]
김준섭, 홍석희, 김희석, 박동준, 김규상, and 박수진. 2023. Masking Exponential-Based Neural Network via Approximated Activation Function. Journal of The Korea Institute of Information Security and Cryptology, 33, 5, (2023), 761-773. DOI: 10.13089/JKIISC.2023.33.5.761.