論文の概要: Robustifying Deep Vision Models Through Shape Sensitization
- arxiv url: http://arxiv.org/abs/2211.07277v1
- Date: Mon, 14 Nov 2022 11:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:46:04.581225
- Title: Robustifying Deep Vision Models Through Shape Sensitization
- Title(参考訳): 形状感化による深部視覚モデルのロバスト化
- Authors: Aditay Tripathi, Rishubh Singh, Anirban Chakraborty, Pradeep Shenoy
- Abstract要約: そこで本研究では,ネットワークの全体像を学習するためのインセンティブを明示的に付与する,シンプルで軽量な対向拡張手法を提案する。
我々の拡張は、ランダムに決定された混合比を用いて、シャッフルパッチで、ある画像から別の画像へのエッジマップを重畳する。
この拡張により,データセットやニューラルアーキテクチャの分類精度とロバストネスが大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 19.118696557797957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown that deep vision models tend to be overly dependent on
low-level or "texture" features, leading to poor generalization. Various data
augmentation strategies have been proposed to overcome this so-called texture
bias in DNNs. We propose a simple, lightweight adversarial augmentation
technique that explicitly incentivizes the network to learn holistic shapes for
accurate prediction in an object classification setting. Our augmentations
superpose edgemaps from one image onto another image with shuffled patches,
using a randomly determined mixing proportion, with the image label of the
edgemap image. To classify these augmented images, the model needs to not only
detect and focus on edges but distinguish between relevant and spurious edges.
We show that our augmentations significantly improve classification accuracy
and robustness measures on a range of datasets and neural architectures. As an
example, for ViT-S, We obtain absolute gains on classification accuracy gains
up to 6%. We also obtain gains of up to 28% and 8.5% on natural adversarial and
out-of-distribution datasets like ImageNet-A (for ViT-B) and ImageNet-R (for
ViT-S), respectively. Analysis using a range of probe datasets shows
substantially increased shape sensitivity in our trained models, explaining the
observed improvement in robustness and classification accuracy.
- Abstract(参考訳): 近年の研究では、深部視覚モデルは低レベルまたは「テクチュア」な特徴に過度に依存しがちであり、一般化が貧弱であることが示されている。
DNNにおけるこのようなテクスチャバイアスを克服するために、様々なデータ拡張戦略が提案されている。
本稿では,オブジェクト分類設定における正確な予測のために,ネットワークが全体形状を学習するためのインセンティブを明示的に与える,単純で軽量な相反拡張手法を提案する。
増補では,エッジマップ画像のイメージラベルとランダムに決定された混合比率を用いて,ある画像から別の画像へのエッジマップをシャッフルパッチで重ね合わせる。
これらの拡張画像を分類するには、エッジの検出とフォーカスだけでなく、関連するエッジとスプリアスエッジを区別する必要がある。
この拡張により、データセットやニューラルネットワークの分類精度とロバストネスの指標が大幅に向上することを示す。
例えば、ViT-Sでは、分類精度が最大6%向上する絶対ゲインを得る。
また,ImageNet-A (ViT-B用) や ImageNet-R (ViT-S用) といった,自然の敵対的データセットとアウト・オブ・ディストリビューションデータセットで最大28%と8.5%のゲインを得た。
各種プローブデータセットを用いて解析したところ, 実験モデルの形状感度が大幅に向上し, 頑健さと分類精度が向上した。
関連論文リスト
- Geometric Data Augmentations to Mitigate Distribution Shifts in Pollen
Classification from Microscopic Images [4.545340728210854]
我々は、幾何学的特徴が正確な花粉の同定に非常に重要であるというドメイン知識を活用している。
本稿では,列車におけるモデル性能とテストデータセットとの精度ギャップを著しく狭めるために,新しい2つの幾何画像拡張手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T10:35:18Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - ImageNet-Hard: The Hardest Images Remaining from a Study of the Power of
Zoom and Spatial Biases in Image Classification [9.779748872936912]
入力画像の適切なフレーミングは、イメージネット画像の98.91%の正確な分類につながることを示す。
本稿では,モデルにズームイン操作を明示的に実行させることにより,分類精度を向上させるテスト時間拡張(TTA)手法を提案する。
論文 参考訳(メタデータ) (2023-04-11T23:55:50Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Multi-layer Representation Learning for Robust OOD Image Classification [3.1372269816123994]
我々は、CNNの中間層から特徴を抽出することで、モデルの最終的な予測を支援することができると主張している。
具体的には、ハイパーカラム法をResNet-18に適用し、NICOデータセットで評価した場合、モデルの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-27T17:46:06Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Towards Robustness of Neural Networks [0.0]
我々は、画像Net-A/O と ImageNet-R と、合成環境とテストスイートである CAOS を紹介した。
すべてのデータセットは、ロバストネスのテストとロバストネスの進捗測定のために作成されました。
我々は、単純なベースラインを最大ロジット、典型スコアの形式で構築するとともに、DeepAugmentの形式で新しいデータ拡張手法を作成します。
論文 参考訳(メタデータ) (2021-12-30T19:41:10Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - Robust Data Hiding Using Inverse Gradient Attention [82.73143630466629]
データ隠蔽タスクでは、異なる耐久性を有するため、カバー画像の各ピクセルを別々に扱う必要がある。
Inverse Gradient Attention (IGA) を用いた新しい深層データ隠蔽方式を提案する。
実証的な実験により、提案モデルが2つの先行するデータセット上で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-11-21T19:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。