論文の概要: FedGreed: A Byzantine-Robust Loss-Based Aggregation Method for Federated Learning
- arxiv url: http://arxiv.org/abs/2508.18060v1
- Date: Mon, 25 Aug 2025 14:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.813082
- Title: FedGreed: A Byzantine-Robust Loss-Based Aggregation Method for Federated Learning
- Title(参考訳): FedGreed:フェデレートラーニングのためのビザンチン・ロバスト・ロスに基づくアグリゲーション手法
- Authors: Emmanouil Kritharakis, Antonios Makris, Dusan Jakovetic, Konstantinos Tserpes,
- Abstract要約: フェデレートラーニング(FL)は、デバイス上のローカルデータセットを保持することで、データのプライバシを保ちながら、複数のクライアント間で協調的なモデルトレーニングを可能にする。
本研究では,クライアントがビザンツ攻撃を行い,クライアントが逆さまに振る舞うようなFL設定に対処する一方,中央サーバは信頼され,参照データセットが装備される。
本稿では,フェデレート学習のためのレジリエントアグリゲーション戦略であるFedGreedを提案する。
- 参考スコア(独自算出の注目度): 1.3853653640712935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training across multiple clients while preserving data privacy by keeping local datasets on-device. In this work, we address FL settings where clients may behave adversarially, exhibiting Byzantine attacks, while the central server is trusted and equipped with a reference dataset. We propose FedGreed, a resilient aggregation strategy for federated learning that does not require any assumptions about the fraction of adversarial participants. FedGreed orders clients' local model updates based on their loss metrics evaluated against a trusted dataset on the server and greedily selects a subset of clients whose models exhibit the minimal evaluation loss. Unlike many existing approaches, our method is designed to operate reliably under heterogeneous (non-IID) data distributions, which are prevalent in real-world deployments. FedGreed exhibits convergence guarantees and bounded optimality gaps under strong adversarial behavior. Experimental evaluations on MNIST, FMNIST, and CIFAR-10 demonstrate that our method significantly outperforms standard and robust federated learning baselines, such as Mean, Trimmed Mean, Median, Krum, and Multi-Krum, in the majority of adversarial scenarios considered, including label flipping and Gaussian noise injection attacks. All experiments were conducted using the Flower federated learning framework.
- Abstract(参考訳): フェデレートラーニング(FL)は、デバイス上のローカルデータセットを保持することで、データのプライバシを保ちながら、複数のクライアント間で協調的なモデルトレーニングを可能にする。
本研究では,クライアントがビザンツ攻撃を行い,クライアントが逆さまに振る舞うようなFL設定に対処する一方,中央サーバは信頼され,参照データセットが装備される。
本稿では,フェデレート学習のためのレジリエントアグリゲーション戦略であるFedGreedを提案する。
FedGreedは、サーバ上の信頼できるデータセットに対して評価された損失メトリクスに基づいて、クライアントのローカルモデルのアップデートを注文する。
多くの既存手法とは異なり,本手法は実世界の展開に広く用いられている異種(非IID)データ分布下で確実に動作するよう設計されている。
FedGreedは強い敵対行動の下で収束保証と有界最適性ギャップを示す。
MNIST, FMNIST, CIFAR-10 を実験的に評価したところ, ラベルフリップやガウスノイズインジェクション攻撃を含むほとんどのシナリオにおいて, 提案手法はMean, Trimmed Mean, Median, Krum, Multi-Krum といった標準的かつ堅牢なフェデレーションベースラインよりも優れていた。
実験はすべて、Flowerのフェデレーション学習フレームワークを用いて行われた。
関連論文リスト
- Robust Federated Learning under Adversarial Attacks via Loss-Based Client Clustering [1.3853653640712935]
フェデレートラーニング(FL)は、プライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLサーバは信頼できる(正直な)サイドデータセットを持ち、FLクライアントが敵(ビザンチン)攻撃を受ける場合のFLシナリオを考察する。
論文 参考訳(メタデータ) (2025-08-18T07:11:21Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。