論文の概要: THAT: Two Head Adversarial Training for Improving Robustness at Scale
- arxiv url: http://arxiv.org/abs/2103.13612v1
- Date: Thu, 25 Mar 2021 05:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 21:49:48.072361
- Title: THAT: Two Head Adversarial Training for Improving Robustness at Scale
- Title(参考訳): THAT: 大規模ロバストネス向上のための2つの頭部対向訓練
- Authors: Zuxuan Wu, Tom Goldstein, Larry S. Davis, Ser-Nam Lim
- Abstract要約: 本研究では,大規模多クラスイメージネットデータセットを扱うために設計された2ストリームの逆学習ネットワークであるhead adversarial trainingを提案する。
提案手法では,2つのヘッドと2つの損失関数を持つネットワークを訓練する。1つは自然画像と逆画像間の特徴空間領域シフトを最小化し,もう1つは高い分類精度を促進する。
- 参考スコア(独自算出の注目度): 126.06873298511425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many variants of adversarial training have been proposed, with most research
focusing on problems with relatively few classes. In this paper, we propose Two
Head Adversarial Training (THAT), a two-stream adversarial learning network
that is designed to handle the large-scale many-class ImageNet dataset. The
proposed method trains a network with two heads and two loss functions; one to
minimize feature-space domain shift between natural and adversarial images, and
one to promote high classification accuracy. This combination delivers a
hardened network that achieves state of the art robust accuracy while
maintaining high natural accuracy on ImageNet. Through extensive experiments,
we demonstrate that the proposed framework outperforms alternative methods
under both standard and "free" adversarial training settings.
- Abstract(参考訳): 逆行訓練の多くの変種が提案されており、ほとんどの研究は比較的少数のクラスの問題に焦点を当てている。
本稿では,大規模な多クラス画像Netデータセットを扱うために設計された2ストリーム逆学習ネットワークであるTwo Head Adversarial Training (THAT)を提案する。
提案手法では,2つのヘッドと2つの損失関数を持つネットワークを訓練する。1つは自然画像と逆画像間の特徴空間領域シフトを最小化し,もう1つは高い分類精度を促進する。
この組み合わせは、ImageNet上で高い自然な精度を維持しながら、最先端の精度を実現する、強化されたネットワークを提供する。
広範にわたる実験により,提案手法は,標準および「自由」な学習条件下での代替手法よりも優れていることを示した。
関連論文リスト
- A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Learning Representations Robust to Group Shifts and Adversarial Examples [18.742222861886148]
本稿では,対向学習とグループ分布の頑健な最適化を組み合わせて表現学習を改善するアルゴリズムを提案する。
3つの画像ベンチマークデータセットの実験から,提案手法は標準指標の多くを犠牲にすることなく,ロバストな測定結果に対して優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-18T22:06:25Z) - Dual Head Adversarial Training [31.538325500032]
ディープニューラルネットワーク(DNN)は、敵の例や攻撃に対して脆弱であることが知られている。
近年の研究では、逆訓練されたDNNの精度と堅牢性との間に固有のトレードオフが存在することが示されている。
本稿では,既存の対人訓練手法の堅牢性をさらに向上させるために,DH-AT(Dual Head Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2021-04-21T06:31:33Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Deep Artifact-Free Residual Network for Single Image Super-Resolution [0.2399911126932526]
本研究では,残差学習の利点と,地中構造像を目標として用いることの利点を活かしたDAFR(Deep Artifact-Free Residual)ネットワークを提案する。
我々のフレームワークは、高品質な画像再構成に必要な高周波情報を抽出するために、ディープモデルを用いている。
実験の結果,提案手法は既存の手法に比べて定量的,定性的な画像品質を実現することがわかった。
論文 参考訳(メタデータ) (2020-09-25T20:53:55Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。