論文の概要: Bayesian Robust Aggregation for Federated Learning
- arxiv url: http://arxiv.org/abs/2505.02490v1
- Date: Mon, 05 May 2025 09:16:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.623974
- Title: Bayesian Robust Aggregation for Federated Learning
- Title(参考訳): フェデレートラーニングのためのベイズ的ロバスト集約
- Authors: Aleksandr Karakulev, Usama Zafar, Salman Toor, Prashant Singh,
- Abstract要約: Federated Learningは、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
敵の攻撃 クライアントの一部が モデル更新を 提出した時
ベイズ推定に基づくモデル更新のロバストアグリゲーションに対する適応的手法を提案する。
- 参考スコア(独自算出の注目度): 42.29248343585333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning enables collaborative training of machine learning models on decentralized data. This scheme, however, is vulnerable to adversarial attacks, when some of the clients submit corrupted model updates. In real-world scenarios, the total number of compromised clients is typically unknown, with the extent of attacks potentially varying over time. To address these challenges, we propose an adaptive approach for robust aggregation of model updates based on Bayesian inference. The mean update is defined by the maximum of the likelihood marginalized over probabilities of each client to be `honest'. As a result, the method shares the simplicity of the classical average estimators (e.g., sample mean or geometric median), being independent of the number of compromised clients. At the same time, it is as effective against attacks as methods specifically tailored to Federated Learning, such as Krum. We compare our approach with other aggregation schemes in federated setting on three benchmark image classification data sets. The proposed method consistently achieves state-of-the-art performance across various attack types with static and varying number of malicious clients.
- Abstract(参考訳): Federated Learningは、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
しかし、このスキームは、一部のクライアントが破損したモデル更新を提出した場合、敵の攻撃に対して脆弱である。
現実のシナリオでは、漏洩したクライアントの総数は一般的に不明であり、攻撃の程度は時間とともに変化する可能性がある。
これらの課題に対処するため,ベイズ推定に基づくモデル更新のロバストアグリゲーションのための適応的アプローチを提案する。
平均更新は、各クライアントの確率よりも極小化される確率の最大値で定義され、'honest'となる。
その結果、従来の平均推定値(サンプル平均値や幾何中央値など)の単純さは、妥協されたクライアントの数とは無関係であることがわかった。
同時に、Krumのようなフェデレートラーニングに特化した手法と同様に、攻撃に対して効果的である。
3つのベンチマーク画像分類データセットのフェデレーション設定における他のアグリゲーション手法との比較を行った。
提案手法は,静的かつ異なる数の悪意のあるクライアントを用いて,様々な攻撃タイプにわたる最先端性能を一貫して達成する。
関連論文リスト
- Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Invariant Aggregator for Defending against Federated Backdoor Attacks [28.416262423174796]
フェデレートラーニングは、プライベートデータを直接共有することなく、複数のクライアントで高ユーティリティモデルをトレーニングすることを可能にする。
欠点として、フェデレートされた設定は、悪意のあるクライアントの存在下での様々な敵攻撃に対して、モデルを脆弱にする。
本稿では、集約された更新を一般的に有用である不変方向へリダイレクトする不変アグリゲータを提案する。
論文 参考訳(メタデータ) (2022-10-04T18:06:29Z) - Federated Learning with Uncertainty via Distilled Predictive
Distributions [14.828509220023387]
筆者らは,各ラウンドにおいて,各クライアントがパラメータや後部予測分布(PPD)だけでなく,後部分布を推定する不確実性を伴うフェデレーション学習の枠組みを提案する。
連邦学習における最近のベイズ的アプローチとは異なり、我々のアプローチでは各クライアントからサーバにパラメータの後方分布全体を送信する必要はない。
我々の手法は、クライアントの後部分布の形式やPDの形式など、制限的な仮定を一切行いません。
論文 参考訳(メタデータ) (2022-06-15T14:24:59Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Gradient Masked Averaging for Federated Learning [24.687254139644736]
フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準FLアルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,FLの勾配マスク平均化手法を提案する。
論文 参考訳(メタデータ) (2022-01-28T08:42:43Z) - Robust Federated Learning via Over-The-Air Computation [48.47690125123958]
オーバー・ザ・エア計算によるモデル更新の簡易な平均化により、学習タスクは悪意のあるクライアントのローカルモデル更新のランダムまたは意図した変更に対して脆弱になる。
本稿では,このような攻撃に対して,フェデレート学習のためのオーバー・ザ・エア計算の利点を保ちながら,ロバストな伝達と集約の枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T19:21:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。