-
Differential Privacy논문&부가지식 2021. 1. 20. 20:15
Def) $ \epsilon-\delta $ Differential Privacy
Let $ \mathcal{D} $ and $ \mathcal{D}' $ be two neighboring datasets that difer in at most one entry. A randomized algorithm $ \mathcal{A} $ is $ (\epsilon-\delta) $-differentially private if for all $ \mathcal{S} \subseteq Range(\mathcal{A}) $:
$$ Pr[\mathcal{A}(\mathcal{D}) \in \mathcal{S}] \leq e^{\epsilon} Pr[\mathcal{A}(\mathcal{D}') \in \mathcal{S}] + \delta $$
where $ \mathcal{A}(\mathcal{D}) $ represents the output of $ \mathcal{A} $ with an input of $ \mathcal{D} $.
위의 정의는 작은 $ \epsilon $에 대해서 공격하는 사람이 두개의 비슷한 dataset을 보고 구별할 수 없다는 것을 의미한다.
식을 해석해보자면 서로다른 데이터 셋이 있는데 알고리즘을 통과한 결과가 내가 추적하고 싶은 ($ \mathcal{S} $ ) 데이터에 들어가는지 안들어가는지 모르면 DP가 성립한다. 예를들어 $ \epsilon >0 $이므로 만약 완벽하게 숨기는 알고리즘을 생각해 볼 때 Pr의 값은 같을 것이다. 따라서 부등식이 성립한다.
'논문&부가지식' 카테고리의 다른 글
Convolution Layer (0) 2021.02.18 Be Your Own Teacher: Imporve the Performance of Convolutional Neural Networks via Distillation (0) 2021.02.16 Reducing the Teacher-Student Gap via Spherical Knowledge Distillation (0) 2021.01.20 [ICCV2019] Onthe Efficacy of Knowledge Distillation (0) 2021.01.13 [NIPS2021]Denoised Smoothing: A Provable Defense for Pretrained Classifiers (0) 2021.01.11