論文の概要: Byzantine-Robust Learning on Heterogeneous Data via Gradient Splitting
- arxiv url: http://arxiv.org/abs/2302.06079v2
- Date: Sun, 4 Jun 2023 12:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 02:56:28.138966
- Title: Byzantine-Robust Learning on Heterogeneous Data via Gradient Splitting
- Title(参考訳): 勾配分割による異種データのビザンチン・ロバスト学習
- Authors: Yuchen Liu, Chen Chen, Lingjuan Lyu, Fangzhao Wu, Sai Wu, Gang Chen
- Abstract要約: フェデレーテッド・ラーニングはビザンツの攻撃に対する脆弱性を示している。
ビザンティン攻撃者は、任意の勾配を中央サーバに送ることで、グローバルモデルの収束と性能を破壊することができる。
アグレゲーション・ルール(AGR)は、ビザンツの攻撃から守るために提案されている。
- 参考スコア(独自算出の注目度): 58.91947205027892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has exhibited vulnerabilities to Byzantine attacks, where
the Byzantine attackers can send arbitrary gradients to a central server to
destroy the convergence and performance of the global model. A wealth of robust
AGgregation Rules (AGRs) have been proposed to defend against Byzantine
attacks. However, Byzantine clients can still circumvent robust AGRs when data
is non-Identically and Independently Distributed (non-IID). In this paper, we
first reveal the root causes of performance degradation of current robust AGRs
in non-IID settings: the curse of dimensionality and gradient heterogeneity. In
order to address this issue, we propose GAS, a \shorten approach that can
successfully adapt existing robust AGRs to non-IID settings. We also provide a
detailed convergence analysis when the existing robust AGRs are combined with
GAS. Experiments on various real-world datasets verify the efficacy of our
proposed GAS. The implementation code is provided in
https://github.com/YuchenLiu-a/byzantine-gas.
- Abstract(参考訳): 連合学習はビザンチン攻撃の脆弱性を示しており、ビザンチン攻撃者は中央サーバーに任意の勾配を送り、グローバルモデルの収束と性能を破壊することができる。
ビザンツの攻撃から守るために、強固なアグリゲーションルール(agr)が提案されている。
しかし、Byzantineのクライアントは、データが非IdenticallyでIndependently Distributed(非IID)である場合でも、堅牢なAGRを回避することができる。
本稿では,非IID環境下での現在のロバストなAGRの性能劣化の根本原因を明らかにする。
この問題に対処するために,既存のロバストなAGRを非IID設定に適応させる手法であるGASを提案する。
また,既存のロバストなAGRとGASを組み合わせた場合の収束解析について述べる。
実世界の各種データセットにおける実験により,提案するガスの有効性が検証された。
実装コードはhttps://github.com/yuchenliu-a/byzantine-gasで提供されている。
関連論文リスト
- Self-Guided Robust Graph Structure Refinement [37.235898707554284]
本稿では,GNNを敵攻撃から守るための自己誘導グラフ構造改善(GSR)フレームワークを提案する。
本稿では,非標的攻撃,標的攻撃,機能攻撃,eコマース詐欺,ノイズの多いノードラベルなど,様々なシナリオにおけるSG-GSRの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T05:00:07Z) - AGRAMPLIFIER: Defending Federated Learning Against Poisoning Attacks
Through Local Update Amplification [13.989900030876012]
Byzantine-Robustアグリゲーションルール (AGRs) は、Byzantine参加者がアップロードした不審なローカル更新をフィルタリングするか、あるいは適度に監視するために提案されている。
本稿では,既存のAGRのロバスト性,忠実性,効率性を同時に向上することを目的とした,AGRAMPLIFIERと呼ばれる新しいアプローチを提案する。
AGRAMPLIFIERの中核となる考え方は、各勾配更新の最も抑圧的な特徴を特定することで、ローカル更新の"道徳性"を増幅することである。
論文 参考訳(メタデータ) (2023-11-13T00:34:45Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Linear Scalarization for Byzantine-robust learning on non-IID data [3.098066034546503]
クライアント間のデータが異種である場合,ビザンチン・ロバスト学習の問題点について検討する。
本研究では,非IID環境でのビザンチン攻撃を回避するため,線形スカラー化(LS)を有効活用する手法を提案する。
論文 参考訳(メタデータ) (2022-10-15T13:24:00Z) - Understanding and Improving Graph Injection Attack by Promoting
Unnoticeability [69.3530705476563]
グラフインジェクションアタック(GIA)はグラフニューラルネットワーク(GNN)の実用的な攻撃シナリオである
グラフ修正攻撃 (GMA) と比較したところ, GIA は比較的高い柔軟性のため, GMA よりも明らかに有害であることがわかった。
我々は,GAAがホモフィリを維持することを強制する,新しい制約-ホモフィリな無意味性を導入し,そのインスタンス化のためにハーモニアス・アドバイサリアル・オブジェクト(HAO)を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:41:39Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。