論文の概要: Fine-Grained Visual Classification using Self Assessment Classifier
- arxiv url: http://arxiv.org/abs/2205.10529v1
- Date: Sat, 21 May 2022 07:41:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 18:19:55.880783
- Title: Fine-Grained Visual Classification using Self Assessment Classifier
- Title(参考訳): 自己評価分類器を用いた細粒度視覚分類
- Authors: Tuong Do, Huy Tran, Erman Tjiputra, Quang D. Tran, Anh Nguyen
- Abstract要約: 識別的特徴の抽出は、きめ細かい視覚的分類タスクにおいて重要な役割を担っている。
本稿では,画像とトップkの予測クラスを同時に活用する自己評価手法を提案する。
本手法は,CUB200-2011,Stanford Dog,FGVC Aircraft のデータセットに対して,最新の結果が得られることを示す。
- 参考スコア(独自算出の注目度): 12.596520707449027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting discriminative features plays a crucial role in the fine-grained
visual classification task. Most of the existing methods focus on developing
attention or augmentation mechanisms to achieve this goal. However, addressing
the ambiguity in the top-k prediction classes is not fully investigated. In
this paper, we introduce a Self Assessment Classifier, which simultaneously
leverages the representation of the image and top-k prediction classes to
reassess the classification results. Our method is inspired by continual
learning with coarse-grained and fine-grained classifiers to increase the
discrimination of features in the backbone and produce attention maps of
informative areas on the image. In practice, our method works as an auxiliary
branch and can be easily integrated into different architectures. We show that
by effectively addressing the ambiguity in the top-k prediction classes, our
method achieves new state-of-the-art results on CUB200-2011, Stanford Dog, and
FGVC Aircraft datasets. Furthermore, our method also consistently improves the
accuracy of different existing fine-grained classifiers with a unified setup.
- Abstract(参考訳): 識別的特徴の抽出は、きめ細かい視覚的分類タスクにおいて重要な役割を果たす。
既存の手法のほとんどは、この目標を達成するために注意や強化のメカニズムを開発することに焦点を当てている。
しかし、トップk予測クラスにおける曖昧性に対処することは十分に検討されていない。
本稿では,画像表現とトップk予測クラスを同時に活用し,分類結果の再評価を行う自己評価分類器を提案する。
本手法は,粗粒度および細粒度の分類器を用いた連続学習に触発され,バックボーンの特徴の識別を増加させ,画像上の情報領域の注意マップを作成する。
実際,本手法は補助分岐として機能し,異なるアーキテクチャに容易に組み込むことができる。
CUB200-2011、Stanford Dog、FGVC Aircraftのデータセットにおいて、トップk予測クラスにおけるあいまいさを効果的に解決することにより、新しい最先端の結果が得られることを示す。
さらに,既存の細粒度分類器の精度を統一的な設定で一貫して改善する。
関連論文リスト
- Spatial Action Unit Cues for Interpretable Deep Facial Expression Recognition [55.97779732051921]
表情認識(FER)のための最先端の分類器は、エンドユーザーにとって重要な特徴である解釈可能性に欠ける。
新しい学習戦略が提案され、AU cues を分類器訓練に明示的に組み込むことで、深い解釈可能なモデルを訓練することができる。
我々の新しい戦略は汎用的であり、アーキテクチャの変更や追加のトレーニング時間を必要とすることなく、ディープCNNやトランスフォーマーベースの分類器に適用できます。
論文 参考訳(メタデータ) (2024-10-01T10:42:55Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Self-Training: A Survey [5.772546394254112]
半教師付きアルゴリズムは、ラベル付き観測の小さなセットとラベルなし観測の大きなセットから予測関数を学習することを目的としている。
近年,自己学習手法が注目されていることは確かである。
本稿では,バイナリクラスとマルチクラス分類のための自己学習手法と,その変種と関連する2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-24T11:40:44Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - GAN for Vision, KG for Relation: a Two-stage Deep Network for Zero-shot
Action Recognition [33.23662792742078]
ゼロショット動作認識のための2段階のディープニューラルネットワークを提案する。
サンプリング段階では,授業の動作特徴と単語ベクトルによって訓練されたGAN(Generative Adversarial Network)を利用する。
分類段階において、アクションクラスの単語ベクトルと関連するオブジェクトの関係に基づいて知識グラフを構築する。
論文 参考訳(メタデータ) (2021-05-25T09:34:42Z) - Improving Classification Accuracy with Graph Filtering [9.153817737157366]
提案されたグラフフィルタリング手法は、平均を維持しながらクラス内分散を減らす効果があることを示した。
本手法は一般にすべての分類問題に適用されるが,クラス内ノイズが小さいサンプル選択に大きく影響しうる場合において特に有用である。
論文 参考訳(メタデータ) (2021-01-12T22:51:55Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。