論文の概要: Advancing Adversarial Training by Injecting Booster Signal
- arxiv url: http://arxiv.org/abs/2306.15451v1
- Date: Tue, 27 Jun 2023 13:12:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 13:21:52.850259
- Title: Advancing Adversarial Training by Injecting Booster Signal
- Title(参考訳): ブースター信号注入による対人訓練の促進
- Authors: Hong Joo Lee, Youngjoon Yu, Yong Man Ro
- Abstract要約: 本稿では,モデルパラメータではなく外部信号を用いて,対向ロバスト性を改善する新しい手法を提案する。
実験結果から, ブースター信号は最近の最先端の対人訓練法に比べて, 自然な精度と堅牢性の両方を向上できることが示された。
- 参考スコア(独自算出の注目度): 32.73078282712434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have demonstrated that deep neural networks (DNNs) are highly
vulnerable to adversarial attacks. To defend against adversarial attacks, many
defense strategies have been proposed, among which adversarial training has
been demonstrated to be the most effective strategy. However, it has been known
that adversarial training sometimes hurts natural accuracy. Then, many works
focus on optimizing model parameters to handle the problem. Different from the
previous approaches, in this paper, we propose a new approach to improve the
adversarial robustness by using an external signal rather than model
parameters. In the proposed method, a well-optimized universal external signal
called a booster signal is injected into the outside of the image which does
not overlap with the original content. Then, it boosts both adversarial
robustness and natural accuracy. The booster signal is optimized in parallel to
model parameters step by step collaboratively. Experimental results show that
the booster signal can improve both the natural and robust accuracies over the
recent state-of-the-art adversarial training methods. Also, optimizing the
booster signal is general and flexible enough to be adopted on any existing
adversarial training methods.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワーク(DNN)が敵の攻撃に対して非常に脆弱であることが示されている。
敵の攻撃から守るために、多くの防衛戦略が提案されており、敵の訓練が最も効果的な戦略であることが示されている。
しかし、逆行訓練が自然の精度を損なうことが知られている。
その後、多くの作業が問題に対処するためにモデルパラメータの最適化に焦点を当てている。
本稿では,従来の手法とは異なり,モデルパラメータではなく外部信号を用いることで,対向ロバスト性を改善するための新しい手法を提案する。
提案手法では、ブースター信号と呼ばれる最適化された普遍的な外部信号が画像の外側に注入され、元のコンテンツと重複しない。
そして、敵対的堅牢性と自然な精度の両方を高める。
ブースター信号は、モデルパラメータを段階的にステップバイステップに並列に最適化される。
実験の結果, ブースタ信号は, 近年の対向訓練法よりも, 自然的, 強固なアキュラティーを向上できることがわかった。
また、ブースター信号の最適化は、既存の敵の訓練方法にも適用できるほど一般的かつ柔軟である。
関連論文リスト
- Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Enhancing Adversarial Training via Reweighting Optimization Trajectory [72.75558017802788]
余分な正規化、敵の重み付け、より多くのデータによるトレーニングといった欠点に対処するいくつかのアプローチが提案されている。
本稿では, 時間内学習の最適化トラジェクトリを利用するtextbfWeighted Optimization Trajectories (WOT) を提案する。
以上の結果から,WOTは既存の対人訓練手法とシームレスに統合され,頑健なオーバーフィッティング問題を一貫して克服していることがわかった。
論文 参考訳(メタデータ) (2023-06-25T15:53:31Z) - Adversarial Attacks and Defense Methods for Power Quality Recognition [16.27980559254687]
脆弱な機械学習手法を使用する電力システムは、敵の例に対する大きな脅威に直面している。
まず、生成した逆数例を用いて電力系統を攻撃するための信号固有法と普遍的な信号認識法を提案する。
転送可能特性に基づくブラックボックス攻撃も提案し,評価した。
論文 参考訳(メタデータ) (2022-02-11T21:18:37Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Robustness-via-Synthesis: Robust Training with Generative Adversarial
Perturbations [10.140147080535224]
先制攻撃による敵の訓練は、今日の敵の摂動に対する最も効果的な防御の1つである。
本研究では, 逆方向の摂動を自動的にランダムなベクトルから生成ネットワークを用いて合成する頑健な学習アルゴリズムを提案する。
実験結果から, 提案手法は様々な勾配に基づく, 生成的ロバストトレーニング手法により, 同等のロバスト性が得られることがわかった。
論文 参考訳(メタデータ) (2021-08-22T13:15:24Z) - ROPUST: Improving Robustness through Fine-tuning with Photonic
Processors and Synthetic Gradients [65.52888259961803]
ROPUSTは、頑健な事前学習モデルを活用し、その堅牢性を高めるためのシンプルで効率的な手法である。
我々は,ロバストベンチの4つの攻撃に対して,9つの異なるモデルを用いて実験を行った。
ROPUSTは,最先端の位相探索技術でも有効であることを示す。
論文 参考訳(メタデータ) (2021-07-06T12:03:36Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Efficient Robust Training via Backward Smoothing [125.91185167854262]
敵の訓練は敵の例に対抗して最も効果的な戦略である。
トレーニングの各ステップにおける反復的な敵攻撃により、高い計算コストに悩まされる。
近年の研究では、単一段階攻撃を行うことで、高速な対人訓練が可能であることが示されている。
論文 参考訳(メタデータ) (2020-10-03T04:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。