論文の概要: Dropout-Robust Mechanisms for Differentially Private and Fully Decentralized Mean Estimation
- arxiv url: http://arxiv.org/abs/2506.03746v1
- Date: Wed, 04 Jun 2025 09:16:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.2554
- Title: Dropout-Robust Mechanisms for Differentially Private and Fully Decentralized Mean Estimation
- Title(参考訳): 個人別および完全分散型平均推定のためのドロップアウト・ロバスト機構
- Authors: César Sabater, Sonia Ben Mokhtar, Jan Ramon,
- Abstract要約: 本研究では, 分散平均推定のための新しいプロトコルを提案し, 差分プライバシーを強制する。
差分プライバシーを強制するプロトコルでは、集中的なオーケストレーションを必要とせず、低分散相関雑音を用いる。
- 参考スコア(独自算出の注目度): 1.1060425537315088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving differentially private computations in decentralized settings poses significant challenges, particularly regarding accuracy, communication cost, and robustness against information leakage. While cryptographic solutions offer promise, they often suffer from high communication overhead or require centralization in the presence of network failures. Conversely, existing fully decentralized approaches typically rely on relaxed adversarial models or pairwise noise cancellation, the latter suffering from substantial accuracy degradation if parties unexpectedly disconnect. In this work, we propose IncA, a new protocol for fully decentralized mean estimation, a widely used primitive in data-intensive processing. Our protocol, which enforces differential privacy, requires no central orchestration and employs low-variance correlated noise, achieved by incrementally injecting sensitive information into the computation. First, we theoretically demonstrate that, when no parties permanently disconnect, our protocol achieves accuracy comparable to that of a centralized setting-already an improvement over most existing decentralized differentially private techniques. Second, we empirically show that our use of low-variance correlated noise significantly mitigates the accuracy loss experienced by existing techniques in the presence of dropouts.
- Abstract(参考訳): 分散化された環境での異なるプライベートな計算の達成は、特に正確性、通信コスト、情報漏洩に対する堅牢性に関する重大な課題を引き起こす。
暗号化ソリューションは約束を提供するが、しばしば高い通信オーバーヘッドに悩まされるか、ネットワーク障害の存在下で集中化を必要とする。
逆に、既存の完全に分散化されたアプローチは、通常、緩和された敵モデルやペアのノイズキャンセリングに頼っている。
本研究では,データ集約処理におけるプリミティブである完全分散平均推定のための新しいプロトコルであるIncAを提案する。
差分プライバシーを強制するプロトコルでは、集中的なオーケストレーションを必要とせず、低分散相関ノイズを用いて、計算に機密情報を漸進的に注入することで実現している。
まず, パーティが永久に切断されない場合, 我々のプロトコルは, 既存の分散化差分私的手法に比べて, 集中的な設定に匹敵する精度を達成できることを理論的に示す。
第2に,我々の低分散相関雑音の使用は,既存の手法によるドロップアウトの有無による精度損失を著しく軽減することを示した。
関連論文リスト
- Differentially private and decentralized randomized power method [15.955127242261808]
微分プライバシー(DP)を実現するために導入されたノイズの分散を低減するための戦略を提案する。
精度を保ちながら、計算と通信のオーバーヘッドが低い分散化フレームワークに適応する。
本研究では,集中型環境におけるノイズスケールを,集中型環境におけるノイズスケールと類似した分散化環境で使用することができることを示す。
論文 参考訳(メタデータ) (2024-11-04T09:53:03Z) - Differential error feedback for communication-efficient decentralized learning [48.924131251745266]
本稿では,差分量子化と誤りフィードバックをブレンドする分散通信効率学習手法を提案する。
その結果,平均二乗誤差と平均ビットレートの両面において通信効率が安定であることが示唆された。
その結果、小さなステップサイズで有限ビットの場合には、圧縮がない場合に達成可能な性能が得られることが判明した。
論文 参考訳(メタデータ) (2024-06-26T15:11:26Z) - Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - A Linearly Convergent Algorithm for Decentralized Optimization: Sending
Less Bits for Free! [72.31332210635524]
分散最適化手法は、中央コーディネータを使わずに、機械学習モデルのデバイス上でのトレーニングを可能にする。
ランダム化圧縮演算子を適用し,通信ボトルネックに対処する新しいランダム化一階法を提案する。
本手法は,ベースラインに比べて通信数の増加を伴わずに問題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-11-03T13:35:53Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。