論文の概要: Mitigating Privacy-Utility Trade-off in Decentralized Federated Learning via $f$-Differential Privacy
- arxiv url: http://arxiv.org/abs/2510.19934v1
- Date: Wed, 22 Oct 2025 18:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.623107
- Title: Mitigating Privacy-Utility Trade-off in Decentralized Federated Learning via $f$-Differential Privacy
- Title(参考訳): 分散型フェデレーション学習におけるプライバシとユーティリティのトレードオフを$f$-differential Privacyを通じて緩和する
- Authors: Xiang Li, Buxin Su, Chendi Wang, Qi Long, Weijie J. Su,
- Abstract要約: Decentralized Federated Learning (FL)により、ローカルユーザはデータを中央サーバと共有することなく、協力できる。
プライベートFLアルゴリズムのプライバシー予算を正確に定量化することは、複雑なアルゴリズムコンポーネントの共存によって困難である。
本稿では、$f$-differential privacy(f$-DP)フレームワーク内の2つの分散FLアルゴリズムのプライバシ会計について述べる。
- 参考スコア(独自算出の注目度): 27.280907787306642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentially private (DP) decentralized Federated Learning (FL) allows local users to collaborate without sharing their data with a central server. However, accurately quantifying the privacy budget of private FL algorithms is challenging due to the co-existence of complex algorithmic components such as decentralized communication and local updates. This paper addresses privacy accounting for two decentralized FL algorithms within the $f$-differential privacy ($f$-DP) framework. We develop two new $f$-DP-based accounting methods tailored to decentralized settings: Pairwise Network $f$-DP (PN-$f$-DP), which quantifies privacy leakage between user pairs under random-walk communication, and Secret-based $f$-Local DP (Sec-$f$-LDP), which supports structured noise injection via shared secrets. By combining tools from $f$-DP theory and Markov chain concentration, our accounting framework captures privacy amplification arising from sparse communication, local iterations, and correlated noise. Experiments on synthetic and real datasets demonstrate that our methods yield consistently tighter $(\epsilon,\delta)$ bounds and improved utility compared to R\'enyi DP-based approaches, illustrating the benefits of $f$-DP in decentralized privacy accounting.
- Abstract(参考訳): Differentially Private (DP) Decentralized Federated Learning (FL) は、ローカルユーザがデータを中央サーバと共有することなく、協力することを可能にする。
しかし、分散通信やローカル更新といった複雑なアルゴリズムコンポーネントが共存しているため、プライベートFLアルゴリズムのプライバシ予算を正確に定量化することは困難である。
本稿では、$f$-differential privacy(f$-DP)フレームワーク内の2つの分散FLアルゴリズムのプライバシ会計について述べる。
Pairwise Network $f$-DP (PN-$f$-DP)、Secret-based $f$-Local DP (Sec-f$-LDP)、共有秘密による構造化ノイズ注入をサポートする。
当社の会計フレームワークは、$f$-DP理論とMarkov連鎖濃度のツールを組み合わせることで、疎通信、局所反復、相関ノイズによるプライバシー増幅を捉える。
合成および実データセットの実験により、我々の手法は、分散プライバシー会計における$f$-DPの利点を実証し、R'enyi DPベースのアプローチと比較して、より厳密な$(\epsilon,\delta)$バウンダリと実用性の向上を実現していることが示された。
関連論文リスト
- Information-Theoretic Decentralized Secure Aggregation with Collusion Resilience [95.33295072401832]
情報理論の観点から分散型セキュアアグリゲーション(DSA)の問題点を考察する。
DSAの最小到達可能な通信量と秘密鍵率を指定する最適レート領域を特徴付ける。
本研究は,DSAの基本性能限界を確立し,信頼性の高い通信効率の高いプロトコルの設計に関する知見を提供する。
論文 参考訳(メタデータ) (2025-08-01T12:51:37Z) - Decentralized Differentially Private Power Method [4.58112062523768]
ネットワーク化されたマルチエージェント設定において主成分分析(PCA)を行うための分散分散微分プライベート・パワー・メソッド(D-DP-PM)を提案する。
本手法は,ネットワーク全体の固有ベクトルを協調的に推定しながら,$(epsilon,delta)$-Differential Privacy (DP)を保証する。
実世界のデータセット実験により、D-DP-PMは、単純で局所的なDPアプローチに比べて、優れたプライバシーとユーティリティのトレードオフを実現することが示された。
論文 参考訳(メタデータ) (2025-07-30T17:15:50Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - The Privacy Power of Correlated Noise in Decentralized Learning [39.48990597191246]
我々は、分散化されたSGDの変種であるDecorを提案する。
我々はSecLDPの下で、ローカルDPを緩和し、外部の盗聴者や好奇心をそそるユーザーからすべてのユーザー通信を保護する。
論文 参考訳(メタデータ) (2024-05-02T06:14:56Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Muffliato: Peer-to-Peer Privacy Amplification for Decentralized Optimization and Averaging [20.39986955578245]
ローカルディファレンシャルプライバシ(LDP)の緩和であるペアワイズネットワークディファレンシャルプライバシを導入する。
我々は、局所勾配降下ステップとゴシップ平均化を交互に交互に行う、微分プライベートな分散最適化アルゴリズムを導出する。
我々のアルゴリズムは,グラフ内のノード間距離の関数として,プライバシー保証を増幅することを示す。
論文 参考訳(メタデータ) (2022-06-10T13:32:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。