論文の概要: A Byzantine-Resilient Aggregation Scheme for Federated Learning via
Matrix Autoregression on Client Updates
- arxiv url: http://arxiv.org/abs/2303.16668v1
- Date: Wed, 29 Mar 2023 13:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 14:52:00.885456
- Title: A Byzantine-Resilient Aggregation Scheme for Federated Learning via
Matrix Autoregression on Client Updates
- Title(参考訳): クライアント更新における行列自己回帰による連合学習のためのビザンチン・レジリエントアグリゲーション
- Authors: Gabriele Tolomei and Edoardo Gabrielli and Dimitri Belli and Vittorio
Miori
- Abstract要約: FLANDERSは各FLラウンドでクライアントが送ったローカルモデル更新を行列値の時系列とみなしている。
悪意のあるクライアントを,行列自己回帰予測モデルで推定した結果と実際の観測結果を比較して,外れ値として識別する。
異なるFL設定下でいくつかのデータセットで実施された実験は、FLANDERSがビザンツのクライアントに対して最も強力なベースラインの堅牢性と一致することを示した。
- 参考スコア(独自算出の注目度): 0.9978961706999835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose FLANDERS, a novel federated learning (FL)
aggregation scheme robust to Byzantine attacks. FLANDERS considers the local
model updates sent by clients at each FL round as a matrix-valued time series.
Then, it identifies malicious clients as outliers of this time series by
comparing actual observations with those estimated by a matrix autoregressive
forecasting model. Experiments conducted on several datasets under different FL
settings demonstrate that FLANDERS matches the robustness of the most powerful
baselines against Byzantine clients. Furthermore, FLANDERS remains highly
effective even under extremely severe attack scenarios, as opposed to existing
defense strategies.
- Abstract(参考訳): 本研究では,ビザンチン攻撃に頑健な新しい連邦学習(FL)アグリゲーションスキームであるFLANDERSを提案する。
FLANDERSは各FLラウンドでクライアントが送ったローカルモデル更新を行列値の時系列とみなしている。
次に,悪意のあるクライアントを,行列自己回帰予測モデルにより推定された実測値と比較することにより,この時系列の外れ値と同定する。
異なるFL設定下でいくつかのデータセットで実施された実験は、FLANDERSがビザンツのクライアントに対して最も強力なベースラインの堅牢性と一致することを示した。
さらに、フランドルは既存の防衛戦略とは対照的に、非常に厳しい攻撃シナリオでも非常に効果的である。
関連論文リスト
- FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - SkyMask: Attack-agnostic Robust Federated Learning with Fine-grained
Learnable Masks [28.057576734955244]
フェデレートラーニング(FL)システムは、悪意のあるモデルアップデートをアップロードすることで、クライアントを侵害したビザンティン攻撃に対して脆弱である。
既存のByzantine-robust FLシステムのほとんどは、Byzantine攻撃に対抗するためにクライアントがアップロードした個々のモデル更新の重みを統計的に分析している。
パラメータレベルでの悪意あるモデル更新を識別するために、きめ細かい学習可能なマスクを利用する攻撃非依存の堅牢なFLシステムであるSkyMaskを提案する。
論文 参考訳(メタデータ) (2023-12-19T16:54:03Z) - An Experimental Study of Byzantine-Robust Aggregation Schemes in
Federated Learning [4.627944480085717]
ビザンチン・ロバスト・フェデレーション・ラーニング(Byzantine-robust Federated Learning)は、訓練過程におけるビザンチンの障害を軽減することを目的としている。
ビザンツのクライアントからの悪意のあるアップデートを防御するために、いくつかの堅牢なアグリゲーションスキームが提案されている。
連邦学習における2つの一般的なアルゴリズムを用いて, 異なる攻撃下でのビザンチン・ロバスト・アグリゲーション方式の実験的検討を行った。
論文 参考訳(メタデータ) (2023-02-14T16:36:38Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Robust Federated Learning via Over-The-Air Computation [48.47690125123958]
オーバー・ザ・エア計算によるモデル更新の簡易な平均化により、学習タスクは悪意のあるクライアントのローカルモデル更新のランダムまたは意図した変更に対して脆弱になる。
本稿では,このような攻撃に対して,フェデレート学習のためのオーバー・ザ・エア計算の利点を保ちながら,ロバストな伝達と集約の枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T19:21:21Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Byzantine-robust Federated Learning through Spatial-temporal Analysis of
Local Model Updates [6.758334200305236]
フェデレートラーニング(FL)は、複数の分散クライアント(モバイルデバイスなど)が、クライアントにローカルにトレーニングデータを保持しながら、協調的に集中的なモデルをトレーニングすることを可能にする。
本稿では,これらの障害と攻撃を空間的・時間的観点から緩和することを提案する。
具体的には、パラメータ空間におけるそれらの幾何学的性質を活用することにより、不正な更新を検出し、排除するためにクラスタリングに基づく手法を用いる。
論文 参考訳(メタデータ) (2021-07-03T18:48:11Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。