論文の概要: MixTailor: Mixed Gradient Aggregation for Robust Learning Against
Tailored Attacks
- arxiv url: http://arxiv.org/abs/2207.07941v1
- Date: Sat, 16 Jul 2022 13:30:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 18:36:31.210208
- Title: MixTailor: Mixed Gradient Aggregation for Robust Learning Against
Tailored Attacks
- Title(参考訳): MixTailor: 不正な攻撃に対するロバスト学習のための混合グラディエントアグリゲーション
- Authors: Ali Ramezani-Kebrya and Iman Tabrizian and Fartash Faghri and Petar
Popovski
- Abstract要約: 我々は,アタッカーが完全に情報を得ることができないようなアグリゲーション戦略のランダム化に基づくスキームであるMixTailorを紹介する。
さまざまなデータセット、攻撃、設定にまたがる実証研究は、我々の仮説を検証し、よく知られたビザンチン耐性のスキームが失敗した場合にMixTailorがうまく防御できることを示した。
- 参考スコア(独自算出の注目度): 32.8090455006524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implementations of SGD on distributed and multi-GPU systems creates new
vulnerabilities, which can be identified and misused by one or more adversarial
agents. Recently, it has been shown that well-known Byzantine-resilient
gradient aggregation schemes are indeed vulnerable to informed attackers that
can tailor the attacks (Fang et al., 2020; Xie et al., 2020b). We introduce
MixTailor, a scheme based on randomization of the aggregation strategies that
makes it impossible for the attacker to be fully informed. Deterministic
schemes can be integrated into MixTailor on the fly without introducing any
additional hyperparameters. Randomization decreases the capability of a
powerful adversary to tailor its attacks, while the resulting randomized
aggregation scheme is still competitive in terms of performance. For both iid
and non-iid settings, we establish almost sure convergence guarantees that are
both stronger and more general than those available in the literature. Our
empirical studies across various datasets, attacks, and settings, validate our
hypothesis and show that MixTailor successfully defends when well-known
Byzantine-tolerant schemes fail.
- Abstract(参考訳): 分散gpuおよびマルチgpuシステムにおけるsgdの実装は、新たな脆弱性を生み出し、1つ以上の敵エージェントによって識別され、誤用される。
近年、よく知られたビザンチン耐性勾配凝集スキームは、攻撃を調整できるインフォームドアタッカーに対して脆弱であることが示されている(fang et al., 2020; xie et al., 2020b)。
我々は,アタッカーが完全に情報を得ることができないようなアグリゲーション戦略のランダム化に基づくスキームであるMixTailorを紹介する。
決定論的スキームは、追加のハイパーパラメータを導入することなく、オンザフライでMixTailorに統合することができる。
ランダム化は攻撃を調整するための強力な敵の能力を低下させるが、結果として生じるランダム化集約スキームは性能面ではまだ競争力がある。
iid設定と非id設定の両方において、文献で利用できるものよりも強く、より一般的な収束保証をほぼ確実に確立する。
さまざまなデータセット、攻撃、設定にまたがる実証研究は、我々の仮説を検証し、よく知られたビザンチン耐性のスキームが失敗した場合にMixTailorがうまく防御できることを示した。
関連論文リスト
- FedRISE: Rating Induced Sign Election of Gradients for Byzantine Tolerant Federated Aggregation [5.011091042850546]
We developed a robust aggregator called FedRISE for cross-silo FL。
3つのデータセットとアーキテクチャに対して6つの有害な攻撃を受ける8つのロバストアグリゲータと比較した。
以上の結果から,FedRISEは厳密な緩やかな包摂的包摂的定式化のため,少なくともいくつかの攻撃において,既存のロバストアグリゲータが崩壊することを示し,FedRISEはより堅牢性を示す。
論文 参考訳(メタデータ) (2024-11-06T12:14:11Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - An Experimental Study of Byzantine-Robust Aggregation Schemes in
Federated Learning [4.627944480085717]
ビザンチン・ロバスト・フェデレーション・ラーニング(Byzantine-robust Federated Learning)は、訓練過程におけるビザンチンの障害を軽減することを目的としている。
ビザンツのクライアントからの悪意のあるアップデートを防御するために、いくつかの堅牢なアグリゲーションスキームが提案されている。
連邦学習における2つの一般的なアルゴリズムを用いて, 異なる攻撃下でのビザンチン・ロバスト・アグリゲーション方式の実験的検討を行った。
論文 参考訳(メタデータ) (2023-02-14T16:36:38Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Stochastic Variance Reduced Ensemble Adversarial Attack for Boosting the
Adversarial Transferability [20.255708227671573]
ブラックボックスの敵攻撃は、あるモデルから別のモデルに転送することができる。
本研究では,分散縮小アンサンブル攻撃と呼ばれる新しいアンサンブル攻撃法を提案する。
実験結果から,提案手法は既存のアンサンブル攻撃を著しく上回り,対向移動性を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-21T06:33:27Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Simeon -- Secure Federated Machine Learning Through Iterative Filtering [74.99517537968161]
連合学習は、分散的で相互に信頼できない学習エージェントによって、グローバルな機械学習モデルを協調的に訓練することを可能にする。
グローバルモデルは、トレーニングを行うクライアントに配布され、新しく訓練されたモデルを優れたモデルに集約します。
ビザンチン耐性アグリゲーションアルゴリズムのクラスが出現し、これらの攻撃に対して様々な堅牢性を提供している。
本稿では,評価に基づく反復フィルタリング手法を適用した新しいアグリゲーション手法であるSimeonを提案する。
論文 参考訳(メタデータ) (2021-03-13T12:17:47Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Extending Adversarial Attacks to Produce Adversarial Class Probability
Distributions [1.439518478021091]
高い不正率を維持しながら,クラスに対する確率分布を近似できることを示す。
この結果から, クラスに対する確率分布は, 高い不正率を維持しつつ, 密に近似できることが示唆された。
論文 参考訳(メタデータ) (2020-04-14T09:39:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。