論文の概要: Exploit Gradient Skewness to Circumvent Byzantine Defenses for Federated Learning
- arxiv url: http://arxiv.org/abs/2502.04890v1
- Date: Fri, 07 Feb 2025 12:56:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:56:04.792399
- Title: Exploit Gradient Skewness to Circumvent Byzantine Defenses for Federated Learning
- Title(参考訳): フェデレートラーニングのためのビザンチン防衛を回避するための爆発的グラディエント・スキューネス
- Authors: Yuchen Liu, Chen Chen, Lingjuan Lyu, Yaochu Jin, Gang Chen,
- Abstract要約: フェデレート・ラーニング(FL)はビザンツの攻撃に対する脆弱性で有名だ。
現在のビザンティンの防衛線は共通の帰納バイアスを共有しており、全ての勾配の中で、密集した防御線は正直である可能性が高い。
不均一なデータにより、高密度に分布する直交勾配群が最適勾配から遠ざかっていることが判明した。
我々はSTRIKEと呼ばれる新しいスキュー・アウェア・アタックを提案し、まず、スキュー・グラデーションを探索し、次に、スキュー・グラデーション内にビザンチン・グラデーションを構築する。
- 参考スコア(独自算出の注目度): 54.36263862306616
- License:
- Abstract: Federated Learning (FL) is notorious for its vulnerability to Byzantine attacks. Most current Byzantine defenses share a common inductive bias: among all the gradients, the densely distributed ones are more likely to be honest. However, such a bias is a poison to Byzantine robustness due to a newly discovered phenomenon in this paper - gradient skew. We discover that a group of densely distributed honest gradients skew away from the optimal gradient (the average of honest gradients) due to heterogeneous data. This gradient skew phenomenon allows Byzantine gradients to hide within the densely distributed skewed gradients. As a result, Byzantine defenses are confused into believing that Byzantine gradients are honest. Motivated by this observation, we propose a novel skew-aware attack called STRIKE: first, we search for the skewed gradients; then, we construct Byzantine gradients within the skewed gradients. Experiments on three benchmark datasets validate the effectiveness of our attack
- Abstract(参考訳): フェデレート・ラーニング(FL)はビザンツの攻撃に対する脆弱性で有名だ。
現在のビザンツの防衛線は共通の帰納バイアスを共有しており、全ての勾配の中で、密集した防御線は正直である可能性が高い。
しかし、このようなバイアスは、この論文で新たに発見された現象である勾配スキューによるビザンチンの堅牢性に対する毒である。
不均一なデータにより、高密度に分布する直交勾配の群が最適勾配(直交勾配の平均)から逸脱することを発見した。
この勾配スキュー現象により、ビザンチン勾配は密度分布したスキュー勾配の中に隠れることができる。
その結果、ビザンツの守備隊は、ビザンツの勾配が正直であると考えるように混乱している。
本研究の目的は,まずスキュー勾配を探索し,次にスキュー勾配内にビザンチン勾配を構築することである。
3つのベンチマークデータセットによる攻撃の有効性検証実験
関連論文リスト
- FedRISE: Rating Induced Sign Election of Gradients for Byzantine Tolerant Federated Aggregation [5.011091042850546]
We developed a robust aggregator called FedRISE for cross-silo FL。
3つのデータセットとアーキテクチャに対して6つの有害な攻撃を受ける8つのロバストアグリゲータと比較した。
以上の結果から,FedRISEは厳密な緩やかな包摂的包摂的定式化のため,少なくともいくつかの攻撃において,既存のロバストアグリゲータが崩壊することを示し,FedRISEはより堅牢性を示す。
論文 参考訳(メタデータ) (2024-11-06T12:14:11Z) - Are Gradients on Graph Structure Reliable in Gray-box Attacks? [56.346504691615934]
従来のグレーボックス攻撃者は、グラフ構造を乱すために、サロゲートモデルからの勾配を用いて脆弱なエッジを見つける。
本稿では,構造勾配の不確実性に起因する誤差を考察し,解析する。
本稿では,構造勾配の誤差を低減する手法を用いた新しい攻撃モデルを提案する。
論文 参考訳(メタデータ) (2022-08-07T06:43:32Z) - Do Perceptually Aligned Gradients Imply Adversarial Robustness? [17.929524924008962]
逆ロバストな分類器は、非ロバストモデルが持たない特性を持っている -- 知覚配向勾配(PAG)
いくつかの研究は、PAGを堅牢なトレーニングの副産物とみなしているが、独立的な現象と見なしたり、独自の意味を研究したりはしていない。
より優れた勾配アライメントがロバスト性を高めることを示し、既存の対向訓練技術のロバスト性を高めるためにこの観測を利用する。
論文 参考訳(メタデータ) (2022-07-22T23:48:26Z) - A Survey on Gradient Inversion: Attacks, Defenses and Future Directions [81.46745643749513]
われわれはGradInvに関する包括的調査を行い、最先端の研究を要約し、異なる領域の地平を広げることを目的としている。
まず,既存攻撃を反復攻撃と再帰攻撃という2つのパラダイムに特徴付けることによって,GradInv攻撃の分類法を提案する。
第2に、GradInv攻撃に対する新たな防衛戦略を要約する。これらのアプローチは、データの隠蔽、モデル改善、勾配保護に関する3つの視点に焦点を当てている。
論文 参考訳(メタデータ) (2022-06-15T03:52:51Z) - Adversarially Robust Classification by Conditional Generative Model
Inversion [4.913248451323163]
本稿では,攻撃の事前知識を仮定することなく,勾配を難読化せず,構造的に堅牢な分類モデルを提案する。
提案手法は,未成熟な自然画像に基づいて訓練された条件生成器を「反転」する最適化問題である。
我々のモデルはブラックボックス攻撃に対して非常に堅牢であり、ホワイトボックス攻撃に対するロバスト性を改善したことを実証する。
論文 参考訳(メタデータ) (2022-01-12T23:11:16Z) - Byzantine-robust Federated Learning through Collaborative Malicious
Gradient Filtering [32.904425716385575]
勾配ベクトルの要素ワイドサインは, モデル中毒攻撃の検出に有用であることを示す。
そこで本稿では,Byzantine-robust フェデレーション学習を有害な勾配フィルタリングによって実現するための textitSignGuard という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-13T11:15:15Z) - Staircase Sign Method for Boosting Adversarial Attacks [123.19227129979943]
トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
そこで本研究では,この問題を緩和するための新しい階段サイン法(S$2$M)を提案する。
我々の手法は一般に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2021-04-20T02:31:55Z) - Imbalanced Gradients: A Subtle Cause of Overestimated Adversarial
Robustness [75.30116479840619]
本稿では,不均衡勾配という,過度に推定された敵の強靭性も引き起こす,より微妙な状況を特定する。
不均衡勾配の現象は、マージン損失の一項の勾配が支配的となり、攻撃を準最適方向に押し上げるときに起こる。
本稿では、マージン分解攻撃(MD)について、個々の項にマージン損失を分解し、これらの項の攻撃可能性について個別に検討する。
論文 参考訳(メタデータ) (2020-06-24T13:41:37Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。