論文の概要: Byzantine-Robust Federated Learning with Learnable Aggregation Weights
- arxiv url: http://arxiv.org/abs/2511.03529v1
- Date: Wed, 05 Nov 2025 15:02:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.454323
- Title: Byzantine-Robust Federated Learning with Learnable Aggregation Weights
- Title(参考訳): 学習可能なアグリゲーションウェイトを用いたビザンチン・ロバスト・フェデレーション学習
- Authors: Javad Parsa, Amir Hossein Daghestani, André M. H. Teixeira, Mikael Johansson,
- Abstract要約: フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、グローバルモデルを協調的にトレーニングすることを可能にする。
悪意のある(ビザンティンの)クライアントの存在は、FLの堅牢性に重大な課題をもたらす。
本稿では,アダプティブ重み付けを集約プロセスに組み込んだ新しいビザンチン・ロバストFL最適化問題を提案する。
- 参考スコア(独自算出の注目度): 7.448890820711754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables clients to collaboratively train a global model without sharing their private data. However, the presence of malicious (Byzantine) clients poses significant challenges to the robustness of FL, particularly when data distributions across clients are heterogeneous. In this paper, we propose a novel Byzantine-robust FL optimization problem that incorporates adaptive weighting into the aggregation process. Unlike conventional approaches, our formulation treats aggregation weights as learnable parameters, jointly optimizing them alongside the global model parameters. To solve this optimization problem, we develop an alternating minimization algorithm with strong convergence guarantees under adversarial attack. We analyze the Byzantine resilience of the proposed objective. We evaluate the performance of our algorithm against state-of-the-art Byzantine-robust FL approaches across various datasets and attack scenarios. Experimental results demonstrate that our method consistently outperforms existing approaches, particularly in settings with highly heterogeneous data and a large proportion of malicious clients.
- Abstract(参考訳): フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、グローバルモデルを協調的にトレーニングすることを可能にする。
しかし、悪意のある(ビザンティン)クライアントの存在は、特にクライアント間のデータ分散が不均一である場合、FLの堅牢性に重大な課題をもたらす。
本稿では,アダプティブ重み付けを集約プロセスに組み込んだ,ビザンチン・ローバストFL最適化問題を提案する。
従来の手法とは異なり,本定式化では集約重みを学習可能なパラメータとして扱い,グローバルモデルパラメータと併用して最適化する。
この最適化問題を解決するため、敵攻撃下での強い収束保証を有する交互最小化アルゴリズムを開発した。
提案した目的のビザンチンレジリエンスを分析した。
我々は,最先端のByzantine-robust FLアプローチに対するアルゴリズムの性能を,様々なデータセットや攻撃シナリオで評価した。
実験結果から,本手法は既存の手法,特に高度に異質なデータと悪意のあるクライアントが多数存在する場合において,一貫した性能を発揮することが示された。
関連論文リスト
- FedQuad: Federated Stochastic Quadruplet Learning to Mitigate Data Heterogeneity [2.298932494750101]
フェデレートラーニング(FL)は、分散データやプライバシ保護といった問題に効果的に取り組む分散モデルトレーニングを提供する。
クライアント間でのクラス内分散とクラス間分散を明示的に最適化する新しい方法であるtextitFedQuadを提案する。
提案手法は, 類似したペア間の距離を最小化しつつ, 負のペア間の距離を最大化し, 共有特徴空間内のクライアントデータを効果的に切り離す手法である。
論文 参考訳(メタデータ) (2025-09-04T11:11:10Z) - Socially inspired Adaptive Coalition and Client Selection in Federated Learning [36.94429692322632]
フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、その効果はクライアントデータの不均一性によって制限されることが多い。
i)合意に基づいてクライアントの非重複連立を動的に形成し、(ii)モデル更新のばらつきを最小限に抑えるために、各連立から1人の代表を選定するクライアント選択アルゴリズムを導入する。
提案手法は, 近距離行列をスペクトルクラスタリングに利用し, 集団の集合的意見を推定する最も情報性の高い個人を特定する手法として, ソーシャルネットワークモデリングに着想を得たものである。
論文 参考訳(メタデータ) (2025-06-03T14:04:31Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - FedDUAL: A Dual-Strategy with Adaptive Loss and Dynamic Aggregation for Mitigating Data Heterogeneity in Federated Learning [12.307490659840845]
フェデレートラーニング(FL)は、様々なクライアントからローカルに最適化されたモデルと、統一されたグローバルモデルを組み合わせる。
FLは、性能劣化、収束の遅さ、グローバルモデルの堅牢性低下など、重大な課題に直面している。
これらの問題を効果的に解決するために、革新的なデュアルストラテジーアプローチを導入する。
論文 参考訳(メタデータ) (2024-12-05T18:42:29Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [55.0981921695672]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。