論文の概要: DSFL: A Dual-Server Byzantine-Resilient Federated Learning Framework via Group-Based Secure Aggregation
- arxiv url: http://arxiv.org/abs/2509.08449v1
- Date: Wed, 10 Sep 2025 09:47:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.377616
- Title: DSFL: A Dual-Server Byzantine-Resilient Federated Learning Framework via Group-Based Secure Aggregation
- Title(参考訳): DSFL:グループベースのセキュアアグリゲーションによる双対ビザンチンレジリエントなフェデレーションラーニングフレームワーク
- Authors: Charuka Herath, Yogachandran Rahulamathavan, Varuna De Silva, Sangarapillai Lambotharan,
- Abstract要約: Federated Learning (FL)は、生データを共有せずに分散モデルトレーニングを可能にし、強力なプライバシ保証を提供する。
既存のFLプロトコルは、ビザンツの参加者に対する防御に苦労し、非独立で同一に分散された(IIDではない)データの下でモデルユーティリティを維持し、エッジデバイスでは軽量のままである。
本稿では,グループベースのセキュアアグリゲーションアプローチを用いて,これらの制約に対処するDual-Server Byzantine-Resilient Federated LearningフレームワークDSFLを提案する。
- 参考スコア(独自算出の注目度): 5.678765930141613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables decentralized model training without sharing raw data, offering strong privacy guarantees. However, existing FL protocols struggle to defend against Byzantine participants, maintain model utility under non-independent and identically distributed (non-IID) data, and remain lightweight for edge devices. Prior work either assumes trusted hardware, uses expensive cryptographic tools, or fails to address privacy and robustness simultaneously. We propose DSFL, a Dual-Server Byzantine-Resilient Federated Learning framework that addresses these limitations using a group-based secure aggregation approach. Unlike LSFL, which assumes non-colluding semi-honest servers, DSFL removes this dependency by revealing a key vulnerability: privacy leakage through client-server collusion. DSFL introduces three key innovations: (1) a dual-server secure aggregation protocol that protects updates without encryption or key exchange, (2) a group-wise credit-based filtering mechanism to isolate Byzantine clients based on deviation scores, and (3) a dynamic reward-penalty system for enforcing fair participation. DSFL is evaluated on MNIST, CIFAR-10, and CIFAR-100 under up to 30 percent Byzantine participants in both IID and non-IID settings. It consistently outperforms existing baselines, including LSFL, homomorphic encryption methods, and differential privacy approaches. For example, DSFL achieves 97.15 percent accuracy on CIFAR-10 and 68.60 percent on CIFAR-100, while FedAvg drops to 9.39 percent under similar threats. DSFL remains lightweight, requiring only 55.9 ms runtime and 1088 KB communication per round.
- Abstract(参考訳): Federated Learning (FL)は、生データを共有せずに分散モデルトレーニングを可能にし、強力なプライバシ保証を提供する。
しかし、既存のFLプロトコルはビザンツの参加者に対する防御に苦労し、非独立で同一に分散された(IIDではない)データの下でモデルユーティリティを維持し、エッジデバイスでは軽量のままである。
以前の作業では、信頼できるハードウェアを前提とするか、高価な暗号化ツールを使用するか、プライバシと堅牢性に同時に対処できないかのいずれかだった。
本稿では,グループベースのセキュアアグリゲーションアプローチを用いて,これらの制約に対処するDual-Server Byzantine-Resilient Federated LearningフレームワークDSFLを提案する。
非最強のサーバを前提とするLSFLとは異なり、DSFLは、クライアントサーバの衝突によるプライバシー漏洩という重要な脆弱性を明らかにすることによって、この依存関係を排除している。
DSFLは,(1)暗号化や鍵交換なしに更新を保護するデュアルサーバセキュアアグリゲーションプロトコル,(2)偏差スコアに基づいてビザンチンクライアントを分離するグループ単位のクレジットベースのフィルタリング機構,(3)公正な参加を強制するための動的報酬報酬システム,の3つの重要なイノベーションを導入している。
DSFLは、MNIST、CIFAR-10、CIFAR-100で評価され、最大30%のビザンツ人のIIDおよび非IID設定で評価される。
LSFL、同型暗号化方法、差分プライバシーアプローチなど、既存のベースラインを一貫して上回っている。
例えば、DSFLはCIFAR-10で97.15パーセント、CIFAR-100で68.60パーセント、FedAvgは同様の脅威で9.39パーセントまで低下する。
DSFLは軽量であり、55.9msのランタイムと1ラウンドあたり1088KBの通信しか必要としない。
関連論文リスト
- FuSeFL: Fully Secure and Scalable Cross-Silo Federated Learning [0.696125353550498]
フェデレートラーニング(FL)は、クライアントデータを集中化せずに協調的なモデルトレーニングを可能にするため、プライバシに敏感なドメインには魅力的である。
クロスサイロ設定用に設計された完全セキュアでスケーラブルなFLスキームであるFuSeFLを提案する。
論文 参考訳(メタデータ) (2025-07-18T00:50:44Z) - Rethinking Byzantine Robustness in Federated Recommendation from Sparse Aggregation Perspective [65.65471972217814]
フェデレーションラーニング(FL)に基づいたフェデレーションレコメンデーション(FR)が出現し、個人データをローカルクライアントに保持し、モデルを協調的に更新する。
FR には独自のスパース集約機構があり、各項目の埋め込みは、一般の FL の密集集合において、完全なクライアントではなく、部分的なクライアントによって更新される。
本稿では,単一項目の集約を最小の実行単位として定義することにより,スパースアグリゲーションの下でのビザンチンのロバスト性を再構成する。
本研究では,スパースアグリゲーションの脆弱性を悪用し,敵の知識と能力に沿って分類する,Sp attackという効果的な攻撃戦略のファミリーを提案する。
論文 参考訳(メタデータ) (2025-01-06T15:19:26Z) - Mitigating Communications Threats in Decentralized Federated Learning
through Moving Target Defense [0.0]
分散フェデレーションラーニング(DFL)は、フェデレーション参加者間の機械学習モデルのトレーニングを可能にした。
本稿では,DFLプラットフォームに対する通信ベースの攻撃に対抗するセキュリティモジュールを提案する。
セキュリティモジュールの有効性は、MNISTデータセットと日食攻撃の実験を通じて検証される。
論文 参考訳(メタデータ) (2023-07-21T17:43:50Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。