AI 환경에서 모델 전도 공격에 안전한 차분 프라이버시 기술

Vol. 29, No. 3, pp. 589-598, 5월. 2019
10.13089/JKIISC.2019.29.3.589, Full Text:
Keywords: Differential privacy, model inversion attack, privacy-preserving neural network
Abstract

온라인상에 축적되는 디지털 데이터의 양은 폭발적으로 증가하고 있으며 이러한 데이터들은 매우 큰 잠재적 가치를 갖고 있다. 국가 및 기업들은 방대한 양의 데이터로부터 다양한 부가가치를 창출하고 있으며 데이터 분석 기술에많은 투자를 하고 있다. 그러나 데이터 분석에서 발생하는 프라이버시 문제는 데이터의 활용을 저해하는 큰 요인으로작용하고 있다. 최근 신경망 모델 기반의 분석 기술에 대한 프라이버시 침해 공격들이 제안됨에 따라 프라이버시를보존하는 인공 신경망 기술에 대한 연구가 요구되고 있다. 이에 따라 엄격한 프라이버시를 보장하는 차분 프라이버시분야에서 다양한 프라이버시 보존형 인공 신경망 기술에 대한 연구가 수행되고 있지만, 신경망 모델의 정확도와 프라이버시 보존 강도 사이의 균형이 적절하지 않은 문제점이 있다. 본 논문에서는 프라이버시와 모델의 성능을 모두 보존하고 모델 전도 공격에 저항성을 갖는 차분 프라이버시 기술을 제안한다. 또한, 프라이버시 보존 강도에 따른 모델전도 공격의 저항성을 분석한다.

Statistics
Show / Hide Statistics

Statistics (Cumulative Counts from December 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.


Cite this article
[IEEE Style]
박철희 and 홍도원, "Differential Privacy Technology Resistant to the Model Inversion Attack in AI Environments," Journal of The Korea Institute of Information Security and Cryptology, vol. 29, no. 3, pp. 589-598, 2019. DOI: 10.13089/JKIISC.2019.29.3.589.

[ACM Style]
박철희 and 홍도원. 2019. Differential Privacy Technology Resistant to the Model Inversion Attack in AI Environments. Journal of The Korea Institute of Information Security and Cryptology, 29, 3, (2019), 589-598. DOI: 10.13089/JKIISC.2019.29.3.589.