論文の概要: A Compositional Feature Embedding and Similarity Metric for
Ultra-Fine-Grained Visual Categorization
- arxiv url: http://arxiv.org/abs/2109.12380v1
- Date: Sat, 25 Sep 2021 15:05:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:30:06.316515
- Title: A Compositional Feature Embedding and Similarity Metric for
Ultra-Fine-Grained Visual Categorization
- Title(参考訳): 超微細視分類のための合成特徴埋め込みと類似度指標
- Authors: Yajie Sun, Miaohua Zhang, Xiaohan Yu, Yi Liao, Yongsheng Gao
- Abstract要約: きめ細かい視覚分類(FGVC)は、クラス間の差異が小さいオブジェクトを分類することを目的としている。
本稿では,超微細な視覚分類のための新しい構成的特徴埋め込みと類似度指標(CECS)を提案する。
最近のベンチマーク手法を用いた2つの超FGVCデータセットと1つのFGVCデータセットの実験結果から,提案手法が最先端性能を実現することを一貫して示している。
- 参考スコア(独自算出の注目度): 16.843126268445726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained visual categorization (FGVC), which aims at classifying objects
with small inter-class variances, has been significantly advanced in recent
years. However, ultra-fine-grained visual categorization (ultra-FGVC), which
targets at identifying subclasses with extremely similar patterns, has not
received much attention. In ultra-FGVC datasets, the samples per category are
always scarce as the granularity moves down, which will lead to overfitting
problems. Moreover, the difference among different categories is too subtle to
distinguish even for professional experts. Motivated by these issues, this
paper proposes a novel compositional feature embedding and similarity metric
(CECS). Specifically, in the compositional feature embedding module, we
randomly select patches in the original input image, and these patches are then
replaced by patches from the images of different categories or masked out. Then
the replaced and masked images are used to augment the original input images,
which can provide more diverse samples and thus largely alleviate overfitting
problem resulted from limited training samples. Besides, learning with diverse
samples forces the model to learn not only the most discriminative features but
also other informative features in remaining regions, enhancing the
generalization and robustness of the model. In the compositional similarity
metric module, a new similarity metric is developed to improve the
classification performance by narrowing the intra-category distance and
enlarging the inter-category distance. Experimental results on two ultra-FGVC
datasets and one FGVC dataset with recent benchmark methods consistently
demonstrate that the proposed CECS method achieves the state of-the-art
performance.
- Abstract(参考訳): 小さいクラス間分散でオブジェクトを分類することを目的とした細粒度視覚分類(fgvc)は近年大きく進歩している。
しかし、非常に類似したパターンのサブクラスを識別する超細粒度視覚分類(ultra-fgvc)は注目されていない。
超FGVCデータセットでは、粒度が低下するにつれてカテゴリ毎のサンプルが常に不足し、過度な問題を引き起こす。
さらに、異なるカテゴリの違いは、専門家にとっても区別するには微妙すぎる。
本稿では,これらの課題に触発され,新しい構成的特徴埋め込みと類似度指標(CECS)を提案する。
具体的には、合成特徴埋め込みモジュールにおいて、元の入力画像のパッチをランダムに選択し、これらのパッチを異なるカテゴリの画像のパッチに置き換えたり、マスクアウトしたりする。
次に、置換およびマスクされた画像を使用して、元の入力画像を強化し、より多様なサンプルを提供し、限られたトレーニングサンプルから生じる過剰フィッティング問題をほとんど軽減する。
さらに、多様なサンプルの学習は、モデルを最も差別的な特徴だけでなく、残りの領域の他の情報的特徴も学習させ、モデルの一般化と堅牢性を高める。
合成類似度測定モジュールにおいて、カテゴリ内距離を狭め、カテゴリ間距離を大きくすることで分類性能を向上させるために、新しい類似度測定器を開発した。
最近のベンチマーク手法を用いた2つの超FGVCデータセットと1つのFGVCデータセットの実験結果から,提案手法が最先端の性能を実現することを示す。
関連論文リスト
- EIANet: A Novel Domain Adaptation Approach to Maximize Class Distinction with Neural Collapse Principles [15.19374752514876]
ソースフリードメイン適応(SFDA)は、ラベル付きソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
SFDAにおける大きな課題は、ターゲットドメインの正確な分類情報を導き出すことである。
クラスプロトタイプを分離するための新しいETF-Informed Attention Network(EIANet)を導入する。
論文 参考訳(メタデータ) (2024-07-23T05:31:05Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - R2-Trans:Fine-Grained Visual Categorization with Redundancy Reduction [21.11038841356125]
細粒度視覚分類(FGVC)は、クラス内の大きな多様性と微妙なクラス間差が主な課題である類似のサブカテゴリを識別することを目的としている。
本稿では,FGVCに対する新たなアプローチを提案する。FGVCは,環境条件における部分的かつ十分な識別情報を同時に利用でき,また,対象物に対するクラストークンにおける冗長情報を圧縮することができる。
論文 参考訳(メタデータ) (2022-04-21T13:35:38Z) - Mask-Guided Feature Extraction and Augmentation for Ultra-Fine-Grained
Visual Categorization [15.627971638835948]
超微細きめの視覚分類(Ultra-FGVC)問題も検討されている。
FGVCは、同じ種からオブジェクトを分類することを目的としており、Ultra-FGVCは、超微細な粒度で画像を分類するより難しい問題をターゲットにしている。
Ultra-FGVCの課題は主に2つの側面から成り立っている。
本稿では,画像の識別・情報領域を抽出するマスク誘導特徴抽出と特徴拡張手法を提案する。
論文 参考訳(メタデータ) (2021-09-16T06:57:05Z) - Enhancing Fine-Grained Classification for Low Resolution Images [97.82441158440527]
低解像度画像は、限られた情報内容の固有の課題と、サブカテゴリ分類に有用な詳細の欠如に悩まされる。
本研究では,補助情報を用いて分類の識別的特徴を学習する,新たな属性支援損失を提案する。
提案する損失関数により、モデルは属性レベルの分離性を取り入れながら、クラス固有の識別特徴を学習することができる。
論文 参考訳(メタデータ) (2021-05-01T13:19:02Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - TOAN: Target-Oriented Alignment Network for Fine-Grained Image
Categorization with Few Labeled Samples [25.68199820110267]
本稿では,対象のクエリイメージとサポートクラスとの関係を詳細に把握するために,TOAN(Target-Oriented Alignment Network)を提案する。
各サポート画像の特徴は、埋め込み特徴空間内のクエリ特徴と一致するように変換され、各カテゴリ内での差異を明示的に低減する。
論文 参考訳(メタデータ) (2020-05-28T07:48:44Z) - Fine-Grained Visual Classification via Progressive Multi-Granularity
Training of Jigsaw Patches [67.51747235117]
きめ細かい視覚分類(FGVC)は従来の分類よりもはるかに難しい。
最近の研究は主に、最も差別的な部分の発見に焦点をあてることによってこの問題に対処している。
本稿では,これらの問題に対処するための視覚的細粒度分類のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-03-08T19:27:30Z) - Cross-Domain Few-Shot Classification via Learned Feature-Wise
Transformation [109.89213619785676]
各クラスにラベル付き画像がほとんどない新しいカテゴリを識別することを目的としている。
既存のメトリックベースの数ショット分類アルゴリズムは、クエリ画像の特徴埋め込みとラベル付き画像の特徴埋め込みを比較して、カテゴリを予測する。
有望な性能が証明されているが、これらの手法は目に見えない領域に一般化できないことが多い。
論文 参考訳(メタデータ) (2020-01-23T18:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。