論文の概要: Robust Training Using Natural Transformation
- arxiv url: http://arxiv.org/abs/2105.04070v1
- Date: Mon, 10 May 2021 01:56:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 01:59:28.321182
- Title: Robust Training Using Natural Transformation
- Title(参考訳): 自然変換を用いたロバストトレーニング
- Authors: Shuo Wang, Lingjuan Lyu, Surya Nepal, Carsten Rudolph, Marthie
Grobler, Kristen Moore
- Abstract要約: 画像分類アルゴリズムのロバスト性を改善するための逆学習手法であるNaTraを提案する。
クラス識別とは無関係な入力画像の属性をターゲティングし、それらの属性を操作して実世界の自然変換を模倣します。
本手法の有効性を,よく訓練されたGANから導かれる非絡み合った潜在表現を用いて実証する。
- 参考スコア(独自算出の注目度): 19.455666609149567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous robustness approaches for deep learning models such as data
augmentation techniques via data transformation or adversarial training cannot
capture real-world variations that preserve the semantics of the input, such as
a change in lighting conditions. To bridge this gap, we present NaTra, an
adversarial training scheme that is designed to improve the robustness of image
classification algorithms. We target attributes of the input images that are
independent of the class identification, and manipulate those attributes to
mimic real-world natural transformations (NaTra) of the inputs, which are then
used to augment the training dataset of the image classifier. Specifically, we
apply \textit{Batch Inverse Encoding and Shifting} to map a batch of given
images to corresponding disentangled latent codes of well-trained generative
models. \textit{Latent Codes Expansion} is used to boost image reconstruction
quality through the incorporation of extended feature maps.
\textit{Unsupervised Attribute Directing and Manipulation} enables
identification of the latent directions that correspond to specific attribute
changes, and then produce interpretable manipulations of those attributes,
thereby generating natural transformations to the input data. We demonstrate
the efficacy of our scheme by utilizing the disentangled latent representations
derived from well-trained GANs to mimic transformations of an image that are
similar to real-world natural variations (such as lighting conditions or
hairstyle), and train models to be invariant to these natural transformations.
Extensive experiments show that our method improves generalization of
classification models and increases its robustness to various real-world
distortions
- Abstract(参考訳): データ変換や逆行訓練によるデータ拡張技術などのディープラーニングモデルの従来の堅牢性アプローチでは、照明条件の変化など、入力の意味を保った実世界の変動を捉えることはできない。
このギャップを埋めるために,画像分類アルゴリズムのロバスト性向上を目的とした対角的トレーニングスキームであるNaTraを提案する。
クラス識別に依存しない入力画像の属性をターゲットとし、それらの属性を操作して入力の現実世界の自然な変換(NaTra)を模倣し、画像分類器のトレーニングデータセットを増強する。
具体的には、与えられた画像のバッチを、よく訓練された生成モデルの対応する非絡み合った潜在コードにマッピングするために、textit{Batch Inverse Encoding and Shifting} を適用する。
\textit{latent codes expansion} は拡張特徴マップの導入を通じて画像再構成の品質を高めるために使用される。
\textit{Unsupervised Attribute Directing and Manipulation} は特定の属性変化に対応する遅延方向を識別し、それらの属性の解釈可能な操作を生成し、入力データに自然な変換を生成する。
本手法は,実世界の自然変化(照明条件や髪型など)に類似した画像の変換を模倣し,これらの自然変換に不変なモデルを構築するために,訓練されたganから導出される不連続な潜在表現を用いて,その効果を実証する。
広範な実験により,本手法は分類モデルの一般化を改善し,実世界の歪みに対して頑健性を高めることを示した。
関連論文リスト
- Random Field Augmentations for Self-Supervised Representation Learning [4.3543354293465155]
本稿では,ガウス確率場に基づく局所変換の新たなファミリーを提案し,自己教師付き表現学習のための画像拡張を生成する。
我々は、ImageNet下流分類のベースラインよりも1.7%のTop-1精度向上と、アウト・オブ・ディストリビューションiNaturalist下流分類の3.6%の改善を実現している。
弱い変換は表現を改善するが、強い変換は画像の構造を劣化させることができる。
論文 参考訳(メタデータ) (2023-11-07T00:35:09Z) - Improving the Transferability of Adversarial Examples with Arbitrary
Style Transfer [32.644062141738246]
スタイル転送ネットワークは、人間の意味的内容を保持しながら、画像内の低レベルの視覚的特徴の分布を変更することができる。
本稿では、任意のスタイル転送ネットワークを用いて、画像を異なる領域に変換する新たな攻撃手法であるStyle Transfer Method (STM)を提案する。
提案手法は、通常訓練されたモデルまたは逆訓練されたモデルにおいて、逆変換性を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-08-21T09:58:13Z) - Improving Diffusion-based Image Translation using Asymmetric Gradient
Guidance [51.188396199083336]
非対称勾配法の適用により拡散サンプリングの逆過程を導出する手法を提案する。
我々のモデルの適応性は、画像融合モデルと潜時拡散モデルの両方で実装できる。
実験により,本手法は画像翻訳タスクにおいて,様々な最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-07T12:56:56Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Data augmentation with mixtures of max-entropy transformations for
filling-level classification [88.14088768857242]
本稿では,コンテンツレベルの分類作業のための基本データ拡張スキームを用いて,テスト時間データにおける分散シフトの問題に対処する。
このような原理的な拡張スキームは,伝達学習を利用した現在のアプローチを置き換えたり,伝達学習と組み合わせて性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-08T11:41:38Z) - Adaptive Image Transformations for Transfer-based Adversarial Attack [73.74904401540743]
適応画像変換学習(AITL)と呼ばれる新しいアーキテクチャを提案する。
精巧に設計した学習者は、入力画像固有の画像変換の最も効果的な組み合わせを適応的に選択する。
本手法は、通常訓練されたモデルと防衛モデルの両方において、各種設定下での攻撃成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-27T08:15:44Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Probabilistic Spatial Transformer Networks [0.6999740786886537]
本稿では、決定論的ではなく、変換を推定する確率的拡張を提案する。
これら2つの特性が,分類性能,ロバスト性,モデル校正性の向上につながることを示す。
さらに、時系列データにおけるモデル性能を改善することにより、非視覚領域へのアプローチが一般化されることを実証する。
論文 参考訳(メタデータ) (2020-04-07T18:22:02Z) - Fast Symmetric Diffeomorphic Image Registration with Convolutional
Neural Networks [11.4219428942199]
本稿では,新しい非教師付き対称画像登録手法を提案する。
大規模脳画像データセットを用いた3次元画像登録法について検討した。
論文 参考訳(メタデータ) (2020-03-20T22:07:24Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。