論文の概要: Hallucinating Saliency Maps for Fine-Grained Image Classification for
Limited Data Domains
- arxiv url: http://arxiv.org/abs/2007.12562v3
- Date: Wed, 3 Feb 2021 10:29:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 05:54:23.264913
- Title: Hallucinating Saliency Maps for Fine-Grained Image Classification for
Limited Data Domains
- Title(参考訳): 限定データ領域の細粒度画像分類のための幻覚的塩分マップ
- Authors: Carola Figueroa-Flores, Bogdan Raducanu, David Berga, and Joost van de
Weijer
- Abstract要約: 画像分類を改善するために,明示的なサリエンシマップを必要としないアプローチを提案する。
提案手法は,サリエンシマップを明示的に提供した場合と同じような結果が得られることを示す。
また,サリエンシ基盤データなしでトレーニングされたサリエンシ推定手法は,実画像サリエンシベンチマーク(Toronto)において競合する結果が得られることを示した。
- 参考スコア(独自算出の注目度): 27.91871214060683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of the saliency methods are evaluated on their ability to generate
saliency maps, and not on their functionality in a complete vision pipeline,
like for instance, image classification. In the current paper, we propose an
approach which does not require explicit saliency maps to improve image
classification, but they are learned implicitely, during the training of an
end-to-end image classification task. We show that our approach obtains similar
results as the case when the saliency maps are provided explicitely. Combining
RGB data with saliency maps represents a significant advantage for object
recognition, especially for the case when training data is limited. We validate
our method on several datasets for fine-grained classification tasks (Flowers,
Birds and Cars). In addition, we show that our saliency estimation method,
which is trained without any saliency groundtruth data, obtains competitive
results on real image saliency benchmark (Toronto), and outperforms deep
saliency models with synthetic images (SID4VAM).
- Abstract(参考訳): 唾液度法の多くは、例えば画像分類のような完全なビジョンパイプラインの機能ではなく、唾液度マップを生成する能力に基づいて評価されている。
本稿では、画像分類を改善するために、明示的な精度マップを必要としないアプローチを提案するが、エンドツーエンドの画像分類タスクのトレーニング中に暗黙的に学習される。
本手法は,サリエンシマップが明示的に提供される場合と同様の結果が得られることを示す。
RGBデータとサリエンシマップを組み合わせることは、特にトレーニングデータに制限がある場合において、オブジェクト認識にとって重要な利点である。
詳細な分類タスク(花、鳥、車)のために、いくつかのデータセットでこの手法を検証する。
さらに,サリエンシ基盤データなしでトレーニングされたサリエンシ推定手法により,実画像サリエンシベンチマーク(Toronto)の競争結果が得られ,合成画像(SID4VAM)によるディープサリエンシモデルよりも優れていることを示す。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Saliency for free: Saliency prediction as a side-effect of object
recognition [4.609056834401648]
本研究では,物体認識深部ニューラルネットワークを学習する際の副作用として,サリエンシマップを生成することができることを示す。
このようなネットワークは、トレーニングに地道な正当性マップを一切必要としない。
実データと合成データの両方で行った大規模な実験により、我々のアプローチが正確な正当性マップを生成できることが証明された。
論文 参考訳(メタデータ) (2021-07-20T17:17:28Z) - Topological Semantic Mapping by Consolidation of Deep Visual Features [0.0]
本研究は,ロボットが操作する環境の複数ビューで撮影された2次元画像から,CNNによって抽出された深い視覚的特徴を利用するトポロジカルセマンティックマッピング手法を提案する。
実世界の屋内データセットを用いて実験を行った結果、この手法は領域の視覚的特徴を統合し、それらを用いてオブジェクトとカテゴリを意味的特性として認識できることがわかった。
論文 参考訳(メタデータ) (2021-06-24T01:10:03Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Texture image classification based on a pseudo-parabolic diffusion model [0.0]
提案手法は、確立されたベンチマークテクスチャデータベースの分類と、植物種認識の実践的な課題について検証する。
画像の同種領域内では、擬似放物的演算子が、うる限りノイズの多い詳細を滑らかにすることができることで、優れた性能を大いに正当化することができる。
論文 参考訳(メタデータ) (2020-11-14T00:04:07Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。