論文の概要: GAIN: Enhancing Byzantine Robustness in Federated Learning with Gradient
Decomposition
- arxiv url: http://arxiv.org/abs/2302.06079v1
- Date: Mon, 13 Feb 2023 03:31:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 16:42:27.913354
- Title: GAIN: Enhancing Byzantine Robustness in Federated Learning with Gradient
Decomposition
- Title(参考訳): GAIN: グラディエント分解によるフェデレーション学習におけるビザンチンロバスト性向上
- Authors: Yuchen Liu, Chen Chen, Lingjuan Lyu, Fangzhao Wu, Sai Wu, Gang Chen
- Abstract要約: フェデレーション学習は、参加者がプライベートデータを公開せずにモデルの共同トレーニングを可能にすることによって、プライバシを意識した学習フレームワークを提供する。
フェデレーテッド・ラーニングはビザンツの攻撃に対する脆弱性を示しており、敵は世界モデルの収束と性能を破壊することを目指している。
本研究では、既存のロバストなアルゴリズムを不均一なデータセットに適応させるのに役立つ勾配分解手法を提案する。
- 参考スコア(独自算出の注目度): 58.91947205027892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning provides a privacy-aware learning framework by enabling
participants to jointly train models without exposing their private data.
However, federated learning has exhibited vulnerabilities to Byzantine attacks,
where the adversary aims to destroy the convergence and performance of the
global model. Meanwhile, we observe that most existing robust AGgregation Rules
(AGRs) fail to stop the aggregated gradient deviating from the optimal gradient
(the average of honest gradients) in the non-IID setting. We attribute the
reason of the failure of these AGRs to two newly proposed concepts:
identification failure and integrity failure. The identification failure mainly
comes from the exacerbated curse of dimensionality in the non-IID setting. The
integrity failure is a combined result of conservative filtering strategy and
gradient heterogeneity. In order to address both failures, we propose GAIN, a
gradient decomposition scheme that can help adapt existing robust algorithms to
heterogeneous datasets. We also provide convergence analysis for integrating
existing robust AGRs into GAIN. Experiments on various real-world datasets
verify the efficacy of our proposed GAIN.
- Abstract(参考訳): フェデレーション学習は、参加者がプライベートデータを公開せずにモデルの共同トレーニングを可能にすることによって、プライバシを意識した学習フレームワークを提供する。
しかし、同盟学習はビザンツ攻撃の脆弱性を示しており、敵はグローバルモデルの収束と性能を破壊することを目指している。
一方、既存のロバストなアグリゲーションルール(AGR)は、非IID設定における最適勾配(正直な勾配の平均)から逸脱した集約された勾配を止めることができない。
我々は,これらのAGRの故障の原因として,新たに提案された2つの概念,識別障害と整合性障害を挙げる。
識別の失敗は主に、非IID設定における次元性の悪化した呪いに由来する。
整合性の失敗は、保守的なフィルタリング戦略と勾配の不均一性の組み合わせの結果である。
両障害に対処するために,既存のロバストアルゴリズムを異種データセットに適応させるための勾配分解スキームgainを提案する。
また、既存の堅牢なAGRをGAINに統合するための収束解析も提供する。
様々な実世界のデータセットにおける実験により,提案手法の有効性が検証された。
関連論文リスト
- Self-Guided Robust Graph Structure Refinement [37.235898707554284]
本稿では,GNNを敵攻撃から守るための自己誘導グラフ構造改善(GSR)フレームワークを提案する。
本稿では,非標的攻撃,標的攻撃,機能攻撃,eコマース詐欺,ノイズの多いノードラベルなど,様々なシナリオにおけるSG-GSRの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T05:00:07Z) - AGRAMPLIFIER: Defending Federated Learning Against Poisoning Attacks
Through Local Update Amplification [13.989900030876012]
Byzantine-Robustアグリゲーションルール (AGRs) は、Byzantine参加者がアップロードした不審なローカル更新をフィルタリングするか、あるいは適度に監視するために提案されている。
本稿では,既存のAGRのロバスト性,忠実性,効率性を同時に向上することを目的とした,AGRAMPLIFIERと呼ばれる新しいアプローチを提案する。
AGRAMPLIFIERの中核となる考え方は、各勾配更新の最も抑圧的な特徴を特定することで、ローカル更新の"道徳性"を増幅することである。
論文 参考訳(メタデータ) (2023-11-13T00:34:45Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Linear Scalarization for Byzantine-robust learning on non-IID data [3.098066034546503]
クライアント間のデータが異種である場合,ビザンチン・ロバスト学習の問題点について検討する。
本研究では,非IID環境でのビザンチン攻撃を回避するため,線形スカラー化(LS)を有効活用する手法を提案する。
論文 参考訳(メタデータ) (2022-10-15T13:24:00Z) - Understanding and Improving Graph Injection Attack by Promoting
Unnoticeability [69.3530705476563]
グラフインジェクションアタック(GIA)はグラフニューラルネットワーク(GNN)の実用的な攻撃シナリオである
グラフ修正攻撃 (GMA) と比較したところ, GIA は比較的高い柔軟性のため, GMA よりも明らかに有害であることがわかった。
我々は,GAAがホモフィリを維持することを強制する,新しい制約-ホモフィリな無意味性を導入し,そのインスタンス化のためにハーモニアス・アドバイサリアル・オブジェクト(HAO)を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:41:39Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。