論文の概要: Private Aggregation for Byzantine-Resilient Heterogeneous Federated Learning
- arxiv url: http://arxiv.org/abs/2506.09870v1
- Date: Wed, 11 Jun 2025 15:42:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.102652
- Title: Private Aggregation for Byzantine-Resilient Heterogeneous Federated Learning
- Title(参考訳): ビザンチン耐性不均一なフェデレーション学習のためのプライベートアグリゲーション
- Authors: Maximilian Egger, Rawad Bitar,
- Abstract要約: 検証可能な秘密共有とセキュアアグリゲーションの慎重な共設計と、調整された対称なプライベート情報検索スキームを含む多段階的手法を提案する。
各種攻撃に対する本手法の有効性を評価し,これまでに知られていた手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 5.2086628085326065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring resilience to Byzantine clients while maintaining the privacy of the clients' data is a fundamental challenge in federated learning (FL). When the clients' data is homogeneous, suitable countermeasures were studied from an information-theoretic perspective utilizing secure aggregation techniques while ensuring robust aggregation of the clients' gradients. However, the countermeasures used fail when the clients' data is heterogeneous. Suitable pre-processing techniques, such as nearest neighbor mixing, were recently shown to enhance the performance of those countermeasures in the heterogeneous setting. Nevertheless, those pre-processing techniques cannot be applied with the introduced privacy-preserving mechanisms. We propose a multi-stage method encompassing a careful co-design of verifiable secret sharing, secure aggregation, and a tailored symmetric private information retrieval scheme to achieve information-theoretic privacy guarantees and Byzantine resilience under data heterogeneity. We evaluate the effectiveness of our scheme on a variety of attacks and show how it outperforms the previously known techniques. Since the communication overhead of secure aggregation is non-negligible, we investigate the interplay with zero-order estimation methods that reduce the communication cost in state-of-the-art FL tasks and thereby make private aggregation scalable.
- Abstract(参考訳): クライアントデータのプライバシを維持しながら、ビザンチンクライアントに対するレジリエンスを確保することは、連邦学習(FL)における根本的な課題である。
クライアントのデータが均質である場合、クライアントの勾配の堅牢性を確保しつつ、セキュアな集約技術を活用した情報理論の観点から適切な対策を検討した。
しかし、クライアントのデータが不均一な場合に使用される対策は失敗する。
近年, 近接混合などの適切な前処理技術により, 均一条件下での処理性能の向上が図られた。
それでも、これらの前処理技術は、導入されたプライバシー保護機構には適用できない。
検証可能な秘密共有,セキュアアグリゲーション,および情報理論のプライバシー保証とビザンチンデータの不均一性の下でのレジリエンスを実現するための対称な情報検索スキームの多段階共同設計を提案する。
各種攻撃に対する本手法の有効性を評価し,これまでに知られていた手法よりも優れた性能を示す。
セキュアアグリゲーションの通信オーバーヘッドは無視できないため、最先端のFLタスクにおける通信コストを削減し、プライベートアグリゲーションをスケーラブルにするゼロオーダー推定手法との相互作用を検討する。
関連論文リスト
- Federated Learning with Differential Privacy: An Utility-Enhanced Approach [12.614480013684759]
フェデレーション学習は、クライアントのデータを共有する必要性をなくすことによって、データのプライバシを保護するための魅力的なアプローチとして現れている。
最近の研究では、フェデレートされた学習だけではプライバシーが保証されないことが示されている。
本稿では,これらのバニラ微分プライベートアルゴリズムを,ハールウェーブレット変換ステップとノイズの分散を著しく低減する新しいノイズ注入方式に基づいて修正する。
論文 参考訳(メタデータ) (2025-03-27T04:48:29Z) - Online federated learning framework for classification [7.613977984287604]
分類のための新しいオンライン・フェデレーション・ラーニング・フレームワークを開発した。
データのプライバシと計算効率を確保しながら、複数のクライアントからのストリーミングデータを処理します。
提案手法は,従来の手法に比べて高い分類精度,計算効率の向上,データストレージ要求の大幅な削減を実現する。
論文 参考訳(メタデータ) (2025-03-19T13:50:19Z) - Privacy Preserving and Robust Aggregation for Cross-Silo Federated Learning in Non-IID Settings [1.8434042562191815]
フェデレーション平均化は、フェデレーション学習において最も広く使われているアグリゲーション戦略である。
私たちのメソッドは、追加のクライアントメタデータを不要にするため、グラデーション更新のみに依存しています。
本研究は, グラデーションマスキングの有効性を, フェデレート学習のための実用的でセキュアなソリューションとして確立した。
論文 参考訳(メタデータ) (2025-03-06T14:06:20Z) - Accuracy-Privacy Trade-off in the Mitigation of Membership Inference Attack in Federated Learning [4.152322723065285]
フェデレーション・ラーニング(FL)は、機械学習において顕著な方法として現れ、複数のクライアントがトレーニングデータをプライベートに保ちながら、協力してモデルを構築することを可能にすることで、プライバシ保護を強調している。
プライバシに重点を置いているにもかかわらず、FLモデルは、メンバーシップ推論攻撃(MIA)など、様々な攻撃を受けやすい。
論文 参考訳(メタデータ) (2024-07-26T22:44:41Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Stratified cross-validation for unbiased and privacy-preserving
federated learning [0.0]
本稿では、重複レコードの繰り返し問題に焦点をあて、もし適切に扱わなければ、モデルの性能を過度に最適化的に見積もる可能性がある。
本稿では,階層化手法を活用して,フェデレート学習環境におけるデータ漏洩を防止する検証手法である階層化クロスバリデーションを紹介し,議論する。
論文 参考訳(メタデータ) (2020-01-22T15:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。