論文の概要: Single-Step Adversarial Training for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2106.15998v1
- Date: Wed, 30 Jun 2021 11:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 15:38:08.259854
- Title: Single-Step Adversarial Training for Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションのための単段階逆行訓練
- Authors: Daniel Wiens and Barbara Hammer
- Abstract要約: 弱い敵攻撃による敵の訓練は、強い攻撃に対する堅牢性を改善するものではないことが知られている。
近年の研究では、トレーニング中に適切なステップサイズを選択することで、そのような単一ステップ法の堅牢性を高めることが可能であることが示されている。
そこで本研究では,単段階対向学習の堅牢性を高めるための新しいステップサイズ制御アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 9.104557591459283
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Even though deep neural networks succeed on many different tasks including
semantic segmentation, they lack on robustness against adversarial examples. To
counteract this exploit, often adversarial training is used. However, it is
known that adversarial training with weak adversarial attacks (e.g. using the
Fast Gradient Method) does not improve the robustness against stronger attacks.
Recent research shows that it is possible to increase the robustness of such
single-step methods by choosing an appropriate step size during the training.
Finding such a step size, without increasing the computational effort of
single-step adversarial training, is still an open challenge. In this work we
address the computationally particularly demanding task of semantic
segmentation and propose a new step size control algorithm that increases the
robustness of single-step adversarial training. The proposed algorithm does not
increase the computational effort of single-step adversarial training
considerably and also simplifies training, because it is free of
meta-parameter. We show that the robustness of our approach can compete with
multi-step adversarial training on two popular benchmarks for semantic
segmentation.
- Abstract(参考訳): ディープニューラルネットワークはセマンティクスセグメンテーションを含む多くの異なるタスクで成功するが、敵の例に対する堅牢性に欠ける。
このエクスプロイトに対抗するために、しばしば敵対的なトレーニングが使用される。
しかし、弱い敵の攻撃を伴う敵の訓練(例)が知られている。
Fast Gradient Methodを使用することで、より強力な攻撃に対する堅牢性は向上しない。
近年の研究では、トレーニング中に適切なステップサイズを選択することで、そのような単一ステップ法の堅牢性を高めることが可能であることが示されている。
このようなステップサイズを見つけることは、単段階の逆行訓練の計算労力を増大させることなく、依然としてオープンな課題である。
本研究では, セマンティックセグメンテーションの計算に特に要求される課題に対処し, 単段階対角訓練の堅牢性を高める新しいステップサイズ制御アルゴリズムを提案する。
提案アルゴリズムは,メタパラメータを含まないため,単段階逆行訓練の計算労力を大幅に増加させず,訓練を簡素化する。
提案手法のロバスト性は,セマンティックセグメンテーションのための2つの一般的なベンチマークにおいて,多段階の対戦訓練と競合することを示す。
関連論文リスト
- Fast Propagation is Better: Accelerating Single-Step Adversarial
Training via Sampling Subnetworks [69.54774045493227]
逆行訓練の欠点は、逆行例の生成によって引き起こされる計算オーバーヘッドである。
モデルの内部構造ブロックを利用して効率を向上させることを提案する。
従来の手法と比較して,本手法はトレーニングコストを削減できるだけでなく,モデルの堅牢性も向上する。
論文 参考訳(メタデータ) (2023-10-24T01:36:20Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Adversarial Coreset Selection for Efficient Robust Training [11.510009152620666]
トレーニングデータの小さなサブセットを選択することは、堅牢なトレーニングの時間的複雑さを軽減するための原則的なアプローチを提供する方法を示す。
本手法が敵の訓練を2~3回高速化することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-09-13T07:37:53Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Efficient Robust Training via Backward Smoothing [125.91185167854262]
敵の訓練は敵の例に対抗して最も効果的な戦略である。
トレーニングの各ステップにおける反復的な敵攻撃により、高い計算コストに悩まされる。
近年の研究では、単一段階攻撃を行うことで、高速な対人訓練が可能であることが示されている。
論文 参考訳(メタデータ) (2020-10-03T04:37:33Z) - Towards Understanding Fast Adversarial Training [91.8060431517248]
高速対人訓練の振る舞いを理解するために実験を行う。
その成功の鍵は、過度な適合から弱い攻撃への回復能力である。
論文 参考訳(メタデータ) (2020-06-04T18:19:43Z) - Improved Noise and Attack Robustness for Semantic Segmentation by Using
Multi-Task Training with Self-Supervised Depth Estimation [39.99513327031499]
本研究では,ラベルなしビデオ上での自己教師付き単眼深度推定により,教師付きセマンティックセマンティックセグメンテーションを拡張するマルチタスクトレーニングによるロバストネスの向上を提案する。
提案手法の有効性をCityscapesデータセットで示し,マルチタスクトレーニングアプローチが単一タスクセマンティックセグメンテーションベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2020-04-23T11:03:56Z) - Single-step Adversarial training with Dropout Scheduling [59.50324605982158]
単段階逆行訓練法を用いて学習したモデルは、単段階逆行の発生を防止するために学習する。
提案手法を用いて訓練されたモデルは, 単段階攻撃と多段階攻撃の両方に対して堅牢である。
論文 参考訳(メタデータ) (2020-04-18T14:14:00Z) - Towards Rapid and Robust Adversarial Training with One-Step Attacks [0.0]
敵の訓練は、敵の攻撃に対するニューラルネットワークの堅牢性を高める最も成功した方法である。
本稿では,計算コストの低いFast Gradient Sign Methodを用いて,敵対的学習を可能にする2つのアイデアを提案する。
FGSMをベースとした対向訓練と併用したノイズ注入は、PGDによる対向訓練に匹敵する結果が得られ、より高速であることを示す。
論文 参考訳(メタデータ) (2020-02-24T07:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。