論文の概要: VDDP: Verifiable Distributed Differential Privacy under the Client-Server-Verifier Setup
- arxiv url: http://arxiv.org/abs/2504.21752v3
- Date: Sat, 01 Nov 2025 22:51:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 18:19:02.731119
- Title: VDDP: Verifiable Distributed Differential Privacy under the Client-Server-Verifier Setup
- Title(参考訳): VDDP: クライアント-サーバ-検証設定下での分散微分プライバシーの検証
- Authors: Haochen Sun, Xi He,
- Abstract要約: 検証可能な分散微分プライバシー(VDDP)は、分散DP機構の実行を検証するためのフレームワークである。
私たちは、クライアント、サーバ、検証者の敵対的行動が解決する可能性のある可能性に対して、エンドツーエンドのセキュリティとプライバシの保証をキャプチャします。
VDDPは通信コストと検証器のオーバーヘッドを最大5,000倍に削減する。
- 参考スコア(独自算出の注目度): 4.281902449361707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although differential privacy (DP) is widely regarded as the de facto standard for data privacy, its implementation remains vulnerable to unfaithful execution by servers, particularly in distributed settings. In such cases, servers may sample noise from incorrect distributions or generate correlated noise while appearing to follow established protocols. This work addresses these malicious behaviours in a distributed client-server-verifier setup, under Verifiable Distributed Differential Privacy (VDDP), a novel framework for the verifiable execution of distributed DP mechanisms. We systematically capture end-to-end security and privacy guarantees against potentially colluding adversarial behaviours of clients, servers, and verifiers by characterizing the connections and distinctions between VDDP and zero-knowledge proofs (ZKPs). We develop three novel and efficient instantiations of VDDP: (1) the Verifiable Distributed Discrete Laplace Mechanism (VDDLM), which achieves up to a 400,000x improvement in proof generation efficiency with only 0.1--0.2x error compared with the previous state-of-the-art verifiable differentially private mechanism and includes a tight privacy analysis that accounts for all additional privacy losses due to numerical imprecisions, applicable to other secure computation protocols for DP mechanisms based on cryptography; (2) the Verifiable Distributed Discrete Gaussian Mechanism (VDDGM), an extension of VDDLM that incurs limited overhead in real-world applications; and (3) an improved solution to Verifiable Randomized Response (VRR) under local DP, as a special case of VDDP, achieving up to a 5,000x reduction in communication costs and verifier overhead.
- Abstract(参考訳): 差分プライバシ(DP)は、データプライバシのデファクトスタンダードとして広く見なされているが、その実装は、特に分散設定において、サーバによる不信な実行に対して脆弱である。
このような場合、サーバは誤った分布からノイズをサンプリングしたり、確立したプロトコルに従っているように見える間に相関ノイズを発生させることができる。
この研究は、分散DPメカニズムを検証可能な新しいフレームワークであるVerifiable Distributed Differential Privacy (VDDP)の下で、分散クライアントサーバ検証設定におけるこれらの悪意ある振る舞いに対処する。
我々は,VDDPとゼロ知識証明(ZKPs)の接続と区別を特徴付けることにより,クライアント,サーバ,検証者の潜在的な敵行動に対するエンド・ツー・エンドのセキュリティとプライバシ保証を体系的に収集する。
VDDPの新規かつ効率的な3つのインスタンス化を開発する:(1) 検証分散離散配置機構(VDDLM) 証明生成効率を0.1-0.2倍の誤差で最大40,000倍向上させ、また、数値的不正確さによるプライバシー損失を考慮に入れた厳密なプライバシー分析を含む: 暗号に基づくDP機構の他のセキュアな計算プロトコルに適用する; (2) 検証分散離散ガウス機構(VDDGM) VDDLMの拡張。
関連論文リスト
- Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Correlated Privacy Mechanisms for Differentially Private Distributed Mean Estimation [8.660393575612169]
ローカルディファレンシャルプライバシ(LDP)とセキュアアグリゲーション(SA)を備えた分散DPは、信頼できないサーバでDP-DME設定で使用されるDPの最も一般的な概念である。
LDPは、ドロップアウト、ユーザの衝突、敵の攻撃に対して強力なレジリエンスを提供するが、実用性に乏しい。
本研究では,DP-DME を極端ケースとして LDP と SA-based のメカニズムをキャプチャする,汎用的な DP-DME フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-03T17:22:33Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - The Poisson binomial mechanism for secure and private federated learning [19.399122892615573]
本稿では,分散平均推定(DME)のための離散的差分プライバシー機構を導入し,フェデレーション学習と分析に応用する。
我々は、プライバシー保証の厳密な分析を行い、連続的なガウス機構と同じプライバシーと精度のトレードオフを達成することを示す。
論文 参考訳(メタデータ) (2022-07-09T05:46:28Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Combining Differential Privacy and Byzantine Resilience in Distributed
SGD [9.14589517827682]
本稿では,分散SGDアルゴリズムが標準パラメータサーバアーキテクチャにおいて,どの程度正確なモデルを学習できるかについて検討する。
特に$(alpha,f)$-Byzantineのレジリエンスに依存しているものは、正直な労働者がDPを強制すると無効となる。
論文 参考訳(メタデータ) (2021-10-08T09:23:03Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。