論文の概要: Increasing-Margin Adversarial (IMA) Training to Improve Adversarial
Robustness of Neural Networks
- arxiv url: http://arxiv.org/abs/2005.09147v9
- Date: Sun, 21 Aug 2022 17:53:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 13:32:37.034932
- Title: Increasing-Margin Adversarial (IMA) Training to Improve Adversarial
Robustness of Neural Networks
- Title(参考訳): ニューラルネットワークの可逆的ロバスト性を改善するための増加マージンadversarial(ima)トレーニング
- Authors: Linhai Ma, Liang Liang
- Abstract要約: 敵の訓練は 敵の騒音に対する モデルの頑丈さを向上させる
過度なノイズを持つ 敵の訓練サンプルは 標準的な精度を損なう
本稿では,IMAと呼ばれる適応的対角訓練手法を提案する。
- 参考スコア(独自算出の注目度): 2.2977141788872366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are vulnerable to adversarial noises. By adding
adversarial noises to training samples, adversarial training can improve the
model's robustness against adversarial noises. However, adversarial training
samples with excessive noises can harm standard accuracy, which may be
unacceptable for many medical image analysis applications. This issue has been
termed the trade-off between standard accuracy and adversarial robustness. In
this paper, we hypothesize that this issue may be alleviated if the adversarial
samples for training are placed right on the decision boundaries. Based on this
hypothesis, we design an adaptive adversarial training method, named IMA. For
each individual training sample, IMA makes a sample-wise estimation of the
upper bound of the adversarial perturbation. In the training process, each of
the sample-wise adversarial perturbations is gradually increased to match the
margin. Once an equilibrium state is reached, the adversarial perturbations
will stop increasing. IMA is evaluated on publicly available datasets under two
popular adversarial attacks, PGD and IFGSM. The results show that: (1) IMA
significantly improves adversarial robustness of DNN classifiers, which
achieves state-of-the-art performance; (2) IMA has a minimal reduction in clean
accuracy among all competing defense methods; (3) IMA can be applied to
pretrained models to reduce time cost; (4) IMA can be applied to the
state-of-the-art medical image segmentation networks, with outstanding
performance. We hope our work may help to lift the trade-off between
adversarial robustness and clean accuracy and facilitate the development of
robust applications in the medical field. The source code will be released when
this paper is published.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
トレーニングサンプルに対向ノイズを加えることで、対向トレーニングは、対向ノイズに対するモデルの堅牢性を向上させることができる。
しかし、過度なノイズを伴う敵の訓練サンプルは、標準的な精度を損なう可能性があり、多くの医療画像解析アプリケーションでは受け入れられない。
この問題は、標準的正確性と敵対的堅牢性の間のトレードオフと呼ばれる。
本稿では, トレーニング用サンプルが決定境界のすぐ上に置かれている場合, この問題は緩和される可能性があると仮定する。
この仮説に基づいて、IMAと呼ばれる適応的対角訓練法を設計する。
個別のトレーニングサンプルに対して、IMAは対向摂動の上界を標本単位で推定する。
トレーニングプロセスでは,各試料の対向摂動が徐々に増加し,マージンが一致した。
平衡状態に達すると、敵の摂動は増加しなくなる。
IMAは、PGDとIFGSMという2つの一般的な敵攻撃の下で、利用可能なデータセットで評価される。
その結果,(1) DNN分類器の対向ロバスト性を著しく向上させ, (2) IMAは全防御法で最小限の精度のクリーン化を実現し,(3) IMAはトレーニング済みモデルに適用して時間的コストを低減し,(4) IMAは最先端の医用画像分割ネットワークに適用でき,優れた性能を実現していることがわかった。
我々の研究が、敵の堅牢性とクリーンな正確性とのトレードオフを高め、医療分野における堅牢なアプリケーションの開発を促進することを願っている。
この論文が公開されたらソースコードが公開される。
関連論文リスト
- Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - DSRM: Boost Textual Adversarial Training with Distribution Shift Risk
Minimization [36.10642858867033]
敵対的訓練は、ディープ言語モデルの堅牢性を改善するための最も優れた方法の1つである。
クリーンなデータのみを用いて対人訓練を行う新しい効果的な方法を提案する。
本手法では, 学習にゼロ対向検定が必要であり, 現行の対向検定法と比較して, 時間消費を最大70%削減する。
論文 参考訳(メタデータ) (2023-06-27T02:46:08Z) - Improved Adversarial Training Through Adaptive Instance-wise Loss
Smoothing [5.1024659285813785]
敵の訓練は、このような敵の攻撃に対する最も成功した防御であった。
本稿では,新たな対人訓練手法を提案する。
本手法は,$ell_infty$-norm制約攻撃に対する最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2023-03-24T15:41:40Z) - Masking and Mixing Adversarial Training [9.690454593095495]
敵の訓練は、敵の例の脅威から守るために人気があり、簡単なテクニックである。
CNNは、敵の例に対する堅牢性を改善するために、標準サンプルの精度を犠牲にしなければならない。
本稿では,M2AT(Masking and Mixing Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2023-02-16T04:05:53Z) - Beyond Pretrained Features: Noisy Image Modeling Provides Adversarial
Defense [52.66971714830943]
マスク付き画像モデリング(MIM)は、自己教師付き視覚表現学習のフレームワークとして普及している。
本稿では,この強力な自己教師型学習パラダイムが,下流の分類器に対して対角的ロバスト性を提供する方法について検討する。
本稿では,デノナイジングのためのデコーダを用いて,デノナイジングのための対角防御手法を提案する。
論文 参考訳(メタデータ) (2023-02-02T12:37:24Z) - Improving Adversarial Robustness via Mutual Information Estimation [144.33170440878519]
ディープニューラルネットワーク(DNN)は、敵の雑音に弱い。
本稿では,情報理論の観点から,対象モデルの出力と入力対向サンプルの依存性について検討する。
本稿では,自然MIの最大化と,学習過程における敵MIの最小化により,敵ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2022-07-25T13:45:11Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Adversarial Robustness Study of Convolutional Neural Network for Lumbar
Disk Shape Reconstruction from MR images [1.2809525640002362]
本研究では, 腰椎MR画像から腰椎椎間板形状を再構成するための代表的CNNのin-distriion (IND) とout-of-distriion (OOD) の対向性について検討した。
以上の結果から, IND対人訓練は, IND対人攻撃に対するCNNのロバスト性を向上し, より大きなトレーニングデータセットがIND対人攻撃のロバスト性を高める可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-04T20:57:49Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。