論文の概要: Robustness and Generalization via Generative Adversarial Training
- arxiv url: http://arxiv.org/abs/2109.02765v1
- Date: Mon, 6 Sep 2021 22:34:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 01:25:41.862432
- Title: Robustness and Generalization via Generative Adversarial Training
- Title(参考訳): 生成的敵意訓練によるロバスト性と一般化
- Authors: Omid Poursaeed, Tianxing Jiang, Harry Yang, Serge Belongie, SerNam Lim
- Abstract要約: 本稿では,テストセットとドメイン外サンプルに対するモデルの一般化を同時に改善する手法であるジェネレーティブ・アドバイサル・トレーニングを提案する。
提案手法は、クリーンな画像やドメイン外サンプルのモデルの性能を向上させるだけでなく、予期せぬ攻撃に対して堅牢であることを示す。
- 参考スコア(独自算出の注目度): 21.946687274313177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep neural networks have achieved remarkable success in various
computer vision tasks, they often fail to generalize to new domains and subtle
variations of input images. Several defenses have been proposed to improve the
robustness against these variations. However, current defenses can only
withstand the specific attack used in training, and the models often remain
vulnerable to other input variations. Moreover, these methods often degrade
performance of the model on clean images and do not generalize to out-of-domain
samples. In this paper we present Generative Adversarial Training, an approach
to simultaneously improve the model's generalization to the test set and
out-of-domain samples as well as its robustness to unseen adversarial attacks.
Instead of altering a low-level pre-defined aspect of images, we generate a
spectrum of low-level, mid-level and high-level changes using generative models
with a disentangled latent space. Adversarial training with these examples
enable the model to withstand a wide range of attacks by observing a variety of
input alterations during training. We show that our approach not only improves
performance of the model on clean images and out-of-domain samples but also
makes it robust against unforeseen attacks and outperforms prior work. We
validate effectiveness of our method by demonstrating results on various tasks
such as classification, segmentation and object detection.
- Abstract(参考訳): ディープニューラルネットワークは様々なコンピュータビジョンタスクで顕著な成功を収めているが、それらはしばしば新しい領域への一般化や入力画像の微妙なバリエーションに失敗している。
これらの変動に対する堅牢性を改善するために、いくつかの防衛策が提案されている。
しかし、現在の防御は訓練で使用される特定の攻撃にしか耐えられず、モデルは他の入力のバリエーションに弱いままであることが多い。
さらに、これらの手法はクリーンな画像上でのモデルの性能を劣化させ、ドメイン外のサンプルに一般化しないことが多い。
本稿では,テストセットとドメイン外サンプルへのモデルの一般化と,その非認識逆攻撃に対する頑健性を同時に改善する手法であるジェネレーティブ・アドバーサリートレーニングを提案する。
画像の低レベルな事前定義された側面を変更する代わりに、非絡み付き潜在空間を持つ生成モデルを用いて、低レベル、中レベル、高レベルな変化のスペクトルを生成する。
これらの例を用いた敵対的トレーニングにより、トレーニング中の様々な入力変更を観察することで、モデルが幅広い攻撃に耐えることができる。
提案手法は,クリーンイメージやドメイン外サンプルのモデル性能を向上させるだけでなく,予期せぬ攻撃や先行作業よりも頑健であることを示す。
本手法の有効性を検証するために, 分類, セグメンテーション, オブジェクト検出などの様々なタスクの結果を示す。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation [72.70876977882882]
臨床応用においては、トレーニング画像(ソース領域)とテスト画像(ターゲット領域)が異なる分布下にある場合、ドメインシフトは一般的な問題である。
本稿では,Few-Shot Unsupervised Domain Adaptation (FSUDA) の新たな手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T16:02:01Z) - Robust Ensemble Morph Detection with Domain Generalization [23.026167387128933]
我々は,多種多様な形態素攻撃への高一般化と,異なる敵攻撃に対する強靭性を有する形態素検出モデルを学習する。
本研究の目的は,畳み込みニューラルネットワーク(CNN)とトランスフォーマーモデルのアンサンブルを同時に構築することである。
提案したロバストアンサンブルモデルがいくつかのモーフィング攻撃や顔データセットに一般化されることを示す。
論文 参考訳(メタデータ) (2022-09-16T19:00:57Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z) - Regularizers for Single-step Adversarial Training [49.65499307547198]
本稿では,1ステップの対数学習手法を用いて,ロバストモデル学習を支援する3種類の正則化器を提案する。
正規化器は、ロバストモデルと擬ロバストモデルとを区別する特性を利用することにより、勾配マスキングの効果を緩和する。
論文 参考訳(メタデータ) (2020-02-03T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。