論文の概要: Towards the Desirable Decision Boundary by Moderate-Margin Adversarial
Training
- arxiv url: http://arxiv.org/abs/2207.07793v1
- Date: Sat, 16 Jul 2022 00:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 16:12:20.582444
- Title: Towards the Desirable Decision Boundary by Moderate-Margin Adversarial
Training
- Title(参考訳): 適度な対向訓練による望ましい意思決定境界に向けて
- Authors: Xiaoyu Liang, Yaguan Qian, Jianchang Huang, Xiang Ling, Bin Wang,
Chunming Wu, and Wassim Swaileh
- Abstract要約: 本研究では,頑健さと自然な精度のトレードオフを改善するために,新たな対人訓練手法を提案する。
MMATは、クロスオーバー問題を緩和するために、よりきめ細かい逆例を生成する。
例えばSVHNでは、最先端の堅牢性と自然な精度が達成される。
- 参考スコア(独自算出の注目度): 8.904046529174867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training, as one of the most effective defense methods against
adversarial attacks, tends to learn an inclusive decision boundary to increase
the robustness of deep learning models. However, due to the large and
unnecessary increase in the margin along adversarial directions, adversarial
training causes heavy cross-over between natural examples and adversarial
examples, which is not conducive to balancing the trade-off between robustness
and natural accuracy. In this paper, we propose a novel adversarial training
scheme to achieve a better trade-off between robustness and natural accuracy.
It aims to learn a moderate-inclusive decision boundary, which means that the
margins of natural examples under the decision boundary are moderate. We call
this scheme Moderate-Margin Adversarial Training (MMAT), which generates
finer-grained adversarial examples to mitigate the cross-over problem. We also
take advantage of logits from a teacher model that has been well-trained to
guide the learning of our model. Finally, MMAT achieves high natural accuracy
and robustness under both black-box and white-box attacks. On SVHN, for
example, state-of-the-art robustness and natural accuracy are achieved.
- Abstract(参考訳): 敵の攻撃に対する最も効果的な防御方法の1つである敵の訓練は、深い学習モデルの堅牢性を高めるために包括的決定境界を学習する傾向がある。
しかし, 逆行方向のマージンが大きく, 不要な増加により, 逆行訓練は自然例と逆行例との間に大きな交叉を引き起こし, 頑健さと自然な精度のトレードオフのバランスをとらない。
本稿では,ロバスト性と自然な正確性とのトレードオフを改善するための新しい対向訓練手法を提案する。
これは、決定境界の下での自然例のマージンが中程度であることを意味する、中程度の決定境界を学ぶことを目的としている。
我々はこのスキームをModerate-Margin Adversarial Training (MMAT)と呼び、クロスオーバー問題を緩和するためによりきめ細かい逆例を生成する。
また,モデルの学習を指導するために十分に訓練された教師モデルからのロジットも活用した。
最後に、MMATはブラックボックス攻撃とホワイトボックス攻撃の両方において、高い自然な精度と堅牢性を達成する。
例えばSVHNでは、最先端の堅牢性と自然な精度を達成する。
関連論文リスト
- Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Focus on Hiders: Exploring Hidden Threats for Enhancing Adversarial
Training [20.1991376813843]
我々は、HFAT(Hider-Focused Adversarial Training)と呼ばれる一般化した逆トレーニングアルゴリズムを提案する。
HFATは、標準的な対向訓練と予防隠蔽装置の最適化方向を組み合わせたものである。
提案手法の有効性を実験により検証した。
論文 参考訳(メタデータ) (2023-12-12T08:41:18Z) - Splitting the Difference on Adversarial Training [13.470640587945057]
敵の訓練は 敵の例に対する 最も効果的な防御の1つです
本研究では、各クラスの摂動例を学習対象の別クラスとして扱うことにより、根本的に異なるアプローチをとる。
この分割は学習するクラスの数を2倍にするが、同時に決定境界を大幅に単純化する。
論文 参考訳(メタデータ) (2023-10-03T23:09:47Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Enhancing Adversarial Robustness for Deep Metric Learning [77.75152218980605]
深層学習モデルの対角的堅牢性を改善する必要がある。
過度にハードな例によるモデル崩壊を避けるため、既存の守備隊はmin-max対逆訓練を中止した。
本研究では, 対人訓練において, 一定の硬度までトレーニング三重奏を効率よく摂動させる硬度操作を提案する。
論文 参考訳(メタデータ) (2022-03-02T22:27:44Z) - Mutual Adversarial Training: Learning together is better than going
alone [82.78852509965547]
モデル間の相互作用が知識蒸留による堅牢性に与える影響について検討する。
本稿では,複数のモデルを同時に訓練する相互対人訓練(MAT)を提案する。
MATは、ホワイトボックス攻撃下で、モデル堅牢性と最先端メソッドを効果的に改善することができる。
論文 参考訳(メタデータ) (2021-12-09T15:59:42Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。