論文の概要: Perfect Privacy for Discriminator-Based Byzantine-Resilient Federated Learning
- arxiv url: http://arxiv.org/abs/2506.13561v1
- Date: Mon, 16 Jun 2025 14:47:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.70355
- Title: Perfect Privacy for Discriminator-Based Byzantine-Resilient Federated Learning
- Title(参考訳): 判別器に基づくビザンチン耐性フェデレート学習のための完全プライバシー
- Authors: Yue Xia, Christoph Hofmeister, Maximilian Egger, Rawad Bitar,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、大規模な機械学習において大きな可能性を秘めているが、新たなプライバシとセキュリティの課題が導入されている。
ByITFLとLoByITFLは,ユーザのデータを盗聴者からプライベートに保ちながら,ビザンチンユーザに対するレジリエンスを高める2つの新しいFLスキームである。
プライバシとビザンチンのレジリエンスに関する理論的保証、収束保証、実験結果の検証を提供する。
- 参考スコア(独自算出の注目度): 4.242342898338019
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) shows great promise in large-scale machine learning but introduces new privacy and security challenges. We propose ByITFL and LoByITFL, two novel FL schemes that enhance resilience against Byzantine users while keeping the users' data private from eavesdroppers. To ensure privacy and Byzantine resilience, our schemes build on having a small representative dataset available to the federator and crafting a discriminator function allowing the mitigation of corrupt users' contributions. ByITFL employs Lagrange coded computing and re-randomization, making it the first Byzantine-resilient FL scheme with perfect Information-Theoretic (IT) privacy, though at the cost of a significant communication overhead. LoByITFL, on the other hand, achieves Byzantine resilience and IT privacy at a significantly reduced communication cost, but requires a Trusted Third Party, used only in a one-time initialization phase before training. We provide theoretical guarantees on privacy and Byzantine resilience, along with convergence guarantees and experimental results validating our findings.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、大規模な機械学習において大きな可能性を秘めているが、新たなプライバシとセキュリティの課題が導入されている。
ByITFLとLoByITFLは,ユーザのデータを盗聴者からプライベートに保ちながら,ビザンチンユーザに対するレジリエンスを高める2つの新しいFLスキームである。
プライバシとビザンチンのレジリエンスを確保するため、当社のスキームは、フェデレーターに利用可能な小さな代表データセットを持ち、不正ユーザのコントリビューションを軽減できる差別機能を構築することの上に構築されている。
ByITFLはラグランジュ符号計算と再ランダム化を採用しており、完全な情報理論(IT)のプライバシーを持つ最初のビザンチン耐性FLスキームである。
一方、LoByITFLは、ビザンチンのレジリエンスとITプライバシを、通信コストを大幅に削減するが、トレーニング前に1回の初期化フェーズでのみ使用されるTrusted Third Partyが必要である。
プライバシとビザンチンのレジリエンスに関する理論的保証、収束保証、実験結果の検証を提供する。
関連論文リスト
- Rethinking Byzantine Robustness in Federated Recommendation from Sparse Aggregation Perspective [65.65471972217814]
フェデレーションラーニング(FL)に基づいたフェデレーションレコメンデーション(FR)が出現し、個人データをローカルクライアントに保持し、モデルを協調的に更新する。
FR には独自のスパース集約機構があり、各項目の埋め込みは、一般の FL の密集集合において、完全なクライアントではなく、部分的なクライアントによって更新される。
本稿では,単一項目の集約を最小の実行単位として定義することにより,スパースアグリゲーションの下でのビザンチンのロバスト性を再構成する。
本研究では,スパースアグリゲーションの脆弱性を悪用し,敵の知識と能力に沿って分類する,Sp attackという効果的な攻撃戦略のファミリーを提案する。
論文 参考訳(メタデータ) (2025-01-06T15:19:26Z) - LoByITFL: Low Communication Secure and Private Federated Learning [4.242342898338019]
我々は,最初のコミュニケーション効率の高い情報理論としてプライベートでセキュアなフェデレート学習方式であるLoByITFLを紹介する。
主要なコンポーネントは、フェデレーターで利用可能な、小さくて代表的なデータセット、FLTrustアルゴリズムの慎重に修正、信頼できるサードパーティのワンタイム使用である。
プライバシーとビザンチンのレジリエンスに関する理論的保証と,LoByITFLの収束を示す実験結果を提供する。
論文 参考訳(メタデータ) (2024-05-29T16:00:19Z) - Byzantine-Resilient Secure Aggregation for Federated Learning Without Privacy Compromises [4.242342898338019]
フェデレーテッド・ラーニング(FL)は大規模な機械学習において大きな可能性を秘めているが、プライバシとセキュリティの面で新たなリスクをもたらす。
我々は,ユーザデータをフェデレーターからプライベートに,他のユーザからプライベートに保ちながら,ビザンチンユーザに対してレジリエンスを提供するFLの新しいスキームであるBYITFLを提案する。
論文 参考訳(メタデータ) (2024-05-14T15:37:56Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。