論文の概要: Towards Deep Learning Models Resistant to Transfer-based Adversarial
Attacks via Data-centric Robust Learning
- arxiv url: http://arxiv.org/abs/2310.09891v1
- Date: Sun, 15 Oct 2023 17:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 01:46:35.912635
- Title: Towards Deep Learning Models Resistant to Transfer-based Adversarial
Attacks via Data-centric Robust Learning
- Title(参考訳): データ中心ロバスト学習による移動型敵攻撃に抵抗するディープラーニングモデルに向けて
- Authors: Yulong Yang, Chenhao Lin, Xiang Ji, Qiwei Tian, Qian Li, Hongshan
Yang, Zhibo Wang, Chao Shen
- Abstract要約: 敵の訓練(AT)は、ホワイトボックス攻撃に対する最強の防御として認められている。
我々はこの新しい防衛パラダイムをデータ中心ロバスト学習(DRL)と呼ぶ。
- 参考スコア(独自算出の注目度): 16.53553150596255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer-based adversarial attacks raise a severe threat to real-world deep
learning systems since they do not require access to target models. Adversarial
training (AT), which is recognized as the strongest defense against white-box
attacks, has also guaranteed high robustness to (black-box) transfer-based
attacks. However, AT suffers from heavy computational overhead since it
optimizes the adversarial examples during the whole training process. In this
paper, we demonstrate that such heavy optimization is not necessary for AT
against transfer-based attacks. Instead, a one-shot adversarial augmentation
prior to training is sufficient, and we name this new defense paradigm
Data-centric Robust Learning (DRL). Our experimental results show that DRL
outperforms widely-used AT techniques (e.g., PGD-AT, TRADES, EAT, and FAT) in
terms of black-box robustness and even surpasses the top-1 defense on
RobustBench when combined with diverse data augmentations and loss
regularizations. We also identify other benefits of DRL, for instance, the
model generalization capability and robust fairness.
- Abstract(参考訳): トランスファーベースの敵攻撃は、ターゲットモデルへのアクセスを必要としないため、現実世界のディープラーニングシステムに深刻な脅威をもたらす。
ホワイトボックス攻撃に対する最強の防御とされるadversarial training(at)もまた、(ブラックボックス)転送ベースの攻撃に対して高い堅牢性を保証する。
しかし、ATはトレーニングプロセス全体の逆例を最適化するため、重い計算オーバーヘッドに悩まされている。
本稿では,ATの移動攻撃に対して,そのような過度な最適化は不要であることを示す。
代わりに、訓練前の一発対向強化は十分であり、我々はこの新しい防衛パラダイムをデータ中心ロバスト学習(DRL)と名付けた。
実験の結果, DRLはブラックボックスのロバスト性において広く使用されているAT技術(PGD-AT, TRADES, EAT, FAT)より優れており, 多様なデータ拡張と損失正規化を組み合わせた場合, ロバストベンチにおけるトップ1防御よりも優れていた。
また、DRLの他の利点として、例えばモデル一般化能力と頑健な公正性を挙げる。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Adaptive Batch Normalization Networks for Adversarial Robustness [33.14617293166724]
敵防衛訓練(Adversarial Training、AT)は、現代の敵防衛の標準的基盤である。
テスト時間領域適応の最近の進歩に触発された適応バッチ正規化ネットワーク(ABNN)を提案する。
ABNNは、デジタルおよび物理的に実現可能な攻撃に対する敵の堅牢性を一貫して改善する。
論文 参考訳(メタデータ) (2024-05-20T00:58:53Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Fabricated Flips: Poisoning Federated Learning without Data [9.060263645085564]
フェデレートラーニング(FL)に対する攻撃は、生成されたモデルの品質を大幅に低下させる。
本稿では、悪意のあるデータを合成し、敵対的モデルを構築するデータフリーな未標的攻撃(DFA)を提案する。
DFAは、最先端の未標的攻撃と同じような、あるいはそれ以上の攻撃成功率を達成する。
論文 参考訳(メタデータ) (2022-02-07T20:38:28Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Lagrangian Objective Function Leads to Improved Unforeseen Attack
Generalization in Adversarial Training [0.0]
対人訓練(AT)は、訓練中に使用される攻撃に対して堅牢なモデルに到達するのに有効であることが示されている。
我々は、上記の問題を緩和する簡易なAT修正を提案する。
我々は,攻撃の一般化を意図した他の攻撃手法よりも,攻撃速度が速いことを示す。
論文 参考訳(メタデータ) (2021-03-29T07:23:46Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。