3.5 合成定理
既然我们已经有了几个用于设计差分隐私算法的模块,那么了解如何将它们结合起来设计更复杂的算法就变得非常重要。为了使用这些工具,我们希望两个差分隐私算法的组合本身是差分隐私的。事实上,两个差分隐私算法的组合确实是差分隐私的。当然,参数 ε 和 δ 必然会降级的——考虑使用拉普拉斯机制重复计算相同的统计,每次都是ε-差分隐私。每一个机制实例给出的答案的平均值最终会收敛到统计的真实值,因此我们不能避免我们的隐私保护强度会随着重复使用而降低。在这一节中,我们给出了一些定理,说明当组合差分隐私子程序时,参数 ε 和 δ 是如何精确组合的。
让我们先从一个简单的预热开始:我们将看到独立的 (ε1,0) -差分隐私算法和((ε2,0) -差分隐私算法使用在一起是 (ε1+ε2,0) -差分隐私算法。
定理 3.14 设 M1:N∣X∣→R1 为 ε1 -差分隐私算法,设 M2:N∣X∣→R2 为 ε2 -差分隐私算法。然后将它们的组合,定义为M1,2:N∣X∣→R1×R2 ,映射为: M1,2(x)=(M1(x),M2(x)) 是 (ε1+ε2) -差分隐私算法。
【证明】 令 x,y∈N∣X∣ 满足 ∥x−y∥1≤1,任意 (r1,r2)∈R1×R2,则:
Pr[M1,2(y)=(r1,r2)]Pr[M1,2(x)=(r1,r2)]=Pr[M1(y)=r1]Pr[M2(x)=r2]Pr[M1(x)=r1]Pr[M2(x)=r2]=(Pr[M1(y)=r1]Pr[M1(x)=r1])(Pr[M2(x)=r2]Pr[M2(x)=r2])≤exp(ε1)exp(ε2)=exp(ε1+ε2)
由对称性,Pr[M1,2(x)=(r1,r2)]Pr[M1,2(y)=(r1,r2)]≥exp(−(ε1+ε2)) 也成立。
【定理 3.14 证毕】
组合定理能反复应用以获得以下推论:
推论 3.15 令 Mi:N∣X∣→Ri 是 (εi,0)- 差分隐私算法(i∈[k])。如果将 M[k]:N∣X∣→∏i=1kRi 定义为 :(M1(x),...,Mk(x)),则 M[k] 是 (∑i=1kεi,0)- 差分隐私。
该定理推广到 (ε,δ)-差分隐私的证明见附录B:
定理 3.16 令 Mi:N∣X∣→Ri 是 (εi,δi)- 差分隐私算法(i∈[k])。如果将 M[k]:N∣X∣→∏i=1kRi 定义为 :(M1(x),...,Mk(x)),则 M[k] 是 (∑i=1kεi,∑i=1kδi)- 差分隐私。
差异隐私的一个优点:其合成是“自动”的,因为获得的限制是保持不变,无需数据提供者对其做任何修改。