論文の概要: Mask-Guided Feature Extraction and Augmentation for Ultra-Fine-Grained
Visual Categorization
- arxiv url: http://arxiv.org/abs/2109.07755v1
- Date: Thu, 16 Sep 2021 06:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 13:58:44.315538
- Title: Mask-Guided Feature Extraction and Augmentation for Ultra-Fine-Grained
Visual Categorization
- Title(参考訳): 超微細視分類のためのマスクガイド特徴抽出と強調
- Authors: Zicheng Pan, Xiaohan Yu, Miaohua Zhang, Yongsheng Gao
- Abstract要約: 超微細きめの視覚分類(Ultra-FGVC)問題も検討されている。
FGVCは、同じ種からオブジェクトを分類することを目的としており、Ultra-FGVCは、超微細な粒度で画像を分類するより難しい問題をターゲットにしている。
Ultra-FGVCの課題は主に2つの側面から成り立っている。
本稿では,画像の識別・情報領域を抽出するマスク誘導特徴抽出と特徴拡張手法を提案する。
- 参考スコア(独自算出の注目度): 15.627971638835948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the fine-grained visual categorization (FGVC) problems have been
greatly developed in the past years, the Ultra-fine-grained visual
categorization (Ultra-FGVC) problems have been understudied. FGVC aims at
classifying objects from the same species (very similar categories), while the
Ultra-FGVC targets at more challenging problems of classifying images at an
ultra-fine granularity where even human experts may fail to identify the visual
difference. The challenges for Ultra-FGVC mainly comes from two aspects: one is
that the Ultra-FGVC often arises overfitting problems due to the lack of
training samples; and another lies in that the inter-class variance among
images is much smaller than normal FGVC tasks, which makes it difficult to
learn discriminative features for each class. To solve these challenges, a
mask-guided feature extraction and feature augmentation method is proposed in
this paper to extract discriminative and informative regions of images which
are then used to augment the original feature map. The advantage of the
proposed method is that the feature detection and extraction model only
requires a small amount of target region samples with bounding boxes for
training, then it can automatically locate the target area for a large number
of images in the dataset at a high detection accuracy. Experimental results on
two public datasets and ten state-of-the-art benchmark methods consistently
demonstrate the effectiveness of the proposed method both visually and
quantitatively.
- Abstract(参考訳): 細粒度視覚分類(FGVC)の問題は近年大きく発展してきたが,超微細度視覚分類(Ultra-FGVC)の問題も検討されている。
FGVCは、同じ種からオブジェクトを分類すること(非常に類似したカテゴリ)を目標とし、Ultra-FGVCは、人間の専門家でさえ視覚的な違いを識別できない超微細な粒度で画像を分類するより難しい問題を目標としている。
Ultra-FGVCの課題は主に2つの側面から生じている: 1つは、Ultra-FGVCがトレーニングサンプルの欠如によって過度に適合する問題を引き起こすこと、もう1つは、画像間のクラス間のばらつきが通常のFGVCタスクよりもはるかに小さく、各クラスにおける識別的特徴の習得が難しいことである。
これらの課題を解決するために,マスク誘導型特徴抽出・特徴拡張手法を提案し,元の特徴マップを付加するために使用される画像の識別・情報領域を抽出する。
提案手法の利点は, 特徴検出抽出モデルでは, トレーニング用境界ボックスを持つ少数の対象領域サンプルしか必要とせず, 高い検出精度で, データセット内の多数の画像に対して, 対象領域を自動的に特定できる点である。
2つの公開データセットと10の最先端ベンチマーク手法の実験結果は、提案手法の有効性を視覚的かつ定量的に一貫して示す。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Salient Mask-Guided Vision Transformer for Fine-Grained Classification [48.1425692047256]
きめ細かい視覚分類(FGVC)は、コンピュータビジョンの問題である。
その主な難しさの1つは、最も差別的な階級間のばらつきを捉えることである。
シンプルで効果的なマスク誘導型視覚変換器(SM-ViT)を導入する。
論文 参考訳(メタデータ) (2023-05-11T19:24:33Z) - R2-Trans:Fine-Grained Visual Categorization with Redundancy Reduction [21.11038841356125]
細粒度視覚分類(FGVC)は、クラス内の大きな多様性と微妙なクラス間差が主な課題である類似のサブカテゴリを識別することを目的としている。
本稿では,FGVCに対する新たなアプローチを提案する。FGVCは,環境条件における部分的かつ十分な識別情報を同時に利用でき,また,対象物に対するクラストークンにおける冗長情報を圧縮することができる。
論文 参考訳(メタデータ) (2022-04-21T13:35:38Z) - Fine-Grained Image Analysis with Deep Learning: A Survey [146.22351342315233]
きめ細かい画像解析(FGIA)は、コンピュータビジョンとパターン認識における長年の根本的な問題である。
本稿では、FGIAの分野を再定義し、FGIAの2つの基礎研究領域、細粒度画像認識と細粒度画像検索を統合することで、FGIAの分野を広げようとしている。
論文 参考訳(メタデータ) (2021-11-11T09:43:56Z) - A Compositional Feature Embedding and Similarity Metric for
Ultra-Fine-Grained Visual Categorization [16.843126268445726]
きめ細かい視覚分類(FGVC)は、クラス間の差異が小さいオブジェクトを分類することを目的としている。
本稿では,超微細な視覚分類のための新しい構成的特徴埋め込みと類似度指標(CECS)を提案する。
最近のベンチマーク手法を用いた2つの超FGVCデータセットと1つのFGVCデータセットの実験結果から,提案手法が最先端性能を実現することを一貫して示している。
論文 参考訳(メタデータ) (2021-09-25T15:05:25Z) - Enhancing Fine-Grained Classification for Low Resolution Images [97.82441158440527]
低解像度画像は、限られた情報内容の固有の課題と、サブカテゴリ分類に有用な詳細の欠如に悩まされる。
本研究では,補助情報を用いて分類の識別的特徴を学習する,新たな属性支援損失を提案する。
提案する損失関数により、モデルは属性レベルの分離性を取り入れながら、クラス固有の識別特徴を学習することができる。
論文 参考訳(メタデータ) (2021-05-01T13:19:02Z) - Image-based Automated Species Identification: Can Virtual Data
Augmentation Overcome Problems of Insufficient Sampling? [0.0]
視覚的種自動識別のための2段階データ拡張手法を提案する。
データ拡張の第1段階は、データ拡張と偽画像の生成という古典的なアプローチを適用している。
第2レベルのデータ拡張では、ベクトル空間におけるオーバーサンプリングアルゴリズムによって、特徴空間における合成的な追加サンプリングが採用されている。
論文 参考訳(メタデータ) (2020-10-18T15:44:45Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - Domain Adaptive Transfer Learning on Visual Attention Aware Data
Augmentation for Fine-grained Visual Categorization [3.5788754401889014]
ベースネットワークモデルに基づく微調整によるドメイン適応型知識伝達を行う。
我々は、注意認識データ拡張技術を用いて、アキュラシーの競争力の向上を示す。
提案手法は,複数の細粒度分類データセットにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2020-10-06T22:47:57Z) - Fine-Grained Visual Classification via Progressive Multi-Granularity
Training of Jigsaw Patches [67.51747235117]
きめ細かい視覚分類(FGVC)は従来の分類よりもはるかに難しい。
最近の研究は主に、最も差別的な部分の発見に焦点をあてることによってこの問題に対処している。
本稿では,これらの問題に対処するための視覚的細粒度分類のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-03-08T19:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。