論文の概要: Nesterov-Accelerated Robust Federated Learning Over Byzantine Adversaries
- arxiv url: http://arxiv.org/abs/2511.02657v1
- Date: Tue, 04 Nov 2025 15:34:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.094009
- Title: Nesterov-Accelerated Robust Federated Learning Over Byzantine Adversaries
- Title(参考訳): Nesterovを加速するロバストなフェデレーション学習
- Authors: Lihan Xu, Yanjie Dong, Gang Wang, Runhao Zeng, Xiaoyi Fan, Xiping Hu,
- Abstract要約: 我々は、労働者のグループが中央サーバのオーケストレーションの下で共有モデルを協調的に訓練する、堅牢な連合学習について検討する。
このような敵に対する通信効率と堅牢性を同時に向上するために,ビザンチン耐性のNesterov Accelerated Federated Learning (Byrd-NAFL)アルゴリズムを提案する。
Byrd-NAFLは、Byzantine-Resilientアグリゲーションルールとともに、連邦学習プロセスに運動量を統合することで、汚職に対する迅速な収束を実現する。
- 参考スコア(独自算出の注目度): 23.65308345549768
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate robust federated learning, where a group of workers collaboratively train a shared model under the orchestration of a central server in the presence of Byzantine adversaries capable of arbitrary and potentially malicious behaviors. To simultaneously enhance communication efficiency and robustness against such adversaries, we propose a Byzantine-resilient Nesterov-Accelerated Federated Learning (Byrd-NAFL) algorithm. Byrd-NAFL seamlessly integrates Nesterov's momentum into the federated learning process alongside Byzantine-resilient aggregation rules to achieve fast and safeguarding convergence against gradient corruption. We establish a finite-time convergence guarantee for Byrd-NAFL under non-convex and smooth loss functions with relaxed assumption on the aggregated gradients. Extensive numerical experiments validate the effectiveness of Byrd-NAFL and demonstrate the superiority over existing benchmarks in terms of convergence speed, accuracy, and resilience to diverse Byzantine attack strategies.
- Abstract(参考訳): 本研究では、ビザンティンの敵対者が任意かつ潜在的に悪意のある行動を行うことができる状況下で、労働者のグループが中央サーバーのオーケストレーションの下で共有モデルを協調的に訓練する堅牢な連合学習について検討する。
このような敵に対する通信効率と堅牢性を同時に向上するために,ビザンチン耐性のNesterov-Accelerated Federated Learning (Byrd-NAFL)アルゴリズムを提案する。
Byrd-NAFLは、Byzantine-Resilientアグリゲーションルールとともに、Nesterovの運動を連邦学習プロセスにシームレスに統合し、グラデーションの腐敗に対して高速かつ安全に収束を達成する。
非凸かつ滑らかな損失関数の下でのByrd-NAFLの有限時間収束保証を確立する。
大規模な数値実験は、Byrd-NAFLの有効性を検証し、様々なビザンティン攻撃戦略に対する収束速度、精度、レジリエンスの観点から、既存のベンチマークよりも優れていることを示す。
関連論文リスト
- Byzantine-Resilient Over-the-Air Federated Learning under Zero-Trust Architecture [68.83934802584899]
我々は,セキュアな適応クラスタリング(FedSAC)を用いたフェデレーション学習(Federated Learning)と呼ばれる,無線通信のための新しいビザンチン・ロバストFLパラダイムを提案する。
FedSACは、デバイスの一部をゼロ信頼アーキテクチャ(ZTA)ベースのビザンティン識別と適応デバイスクラスタリングによる攻撃から保護することを目的としている。
実験精度と収束率の両面から,提案手法よりもFedSACの方が優れていることを示す。
論文 参考訳(メタデータ) (2025-03-24T01:56:30Z) - LiD-FL: Towards List-Decodable Federated Learning [18.89910309677336]
本稿では,中央サーバが敵のリストを維持できる,リスト記述可能なフェデレーション学習のためのアルゴリズムフレームワークを提案する。
実験結果から,提案アルゴリズムは様々な攻撃において悪意ある多数派に耐えうることが示された。
論文 参考訳(メタデータ) (2024-08-09T09:29:02Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。