論文の概要: A Systematic Evaluation: Fine-Grained CNN vs. Traditional CNN
Classifiers
- arxiv url: http://arxiv.org/abs/2003.11154v3
- Date: Wed, 3 Nov 2021 01:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:00:00.081888
- Title: A Systematic Evaluation: Fine-Grained CNN vs. Traditional CNN
Classifiers
- Title(参考訳): システム評価:細粒CNNと従来のCNN分類器の比較
- Authors: Saeed Anwar, Nick Barnes and Lars Petersson
- Abstract要約: 本稿では,大規模分類データセット上でトップノーチ結果を示すランドマーク一般的なCNN分類器の性能について検討する。
最先端のきめ細かい分類器と比較する。
実験において, 粒度の細かい分類器がベースラインを高められるかどうかを判定するために, 6つのデータセットについて広範囲に評価する。
- 参考スコア(独自算出の注目度): 54.996358399108566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To make the best use of the underlying minute and subtle differences,
fine-grained classifiers collect information about inter-class variations. The
task is very challenging due to the small differences between the colors,
viewpoint, and structure in the same class entities. The classification becomes
more difficult due to the similarities between the differences in viewpoint
with other classes and differences with its own. In this work, we investigate
the performance of the landmark general CNN classifiers, which presented
top-notch results on large scale classification datasets, on the fine-grained
datasets, and compare it against state-of-the-art fine-grained classifiers. In
this paper, we pose two specific questions: (i) Do the general CNN classifiers
achieve comparable results to fine-grained classifiers? (ii) Do general CNN
classifiers require any specific information to improve upon the fine-grained
ones? Throughout this work, we train the general CNN classifiers without
introducing any aspect that is specific to fine-grained datasets. We show an
extensive evaluation on six datasets to determine whether the fine-grained
classifier is able to elevate the baseline in their experiments.
- Abstract(参考訳): 下位の微妙な違いを最大限に活用するために、細粒度の分類器はクラス間変異に関する情報を収集する。
このタスクは、同じクラスエンティティの色、視点、構造の違いが小さいため、非常に難しい。
他のクラスとの視点の違いとそれ自身の違いの類似性により、分類はより困難になる。
そこで本研究では,大規模分類データセットにおいてトップノッチ結果を示した目印の一般cnn分類器の性能を細粒度データセット上で検証し,最先端の細粒度分類器と比較する。
本稿では,2つの具体的疑問を提起する。
(i)一般的なCNN分類器は、きめ細かい分類器に匹敵する結果が得られるか?
(ii) CNN分類器は、きめ細かい情報を改善するために、特定の情報を必要とするか?
この作業を通じて、きめ細かいデータセットに特有なアスペクトを導入することなく、一般的なCNN分類器を訓練する。
本研究では,6つのデータセットについて広範な評価を行い,細粒度分類器が実験でベースラインを昇華できるかどうかを判定する。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Understanding CNN Fragility When Learning With Imbalanced Data [1.1444576186559485]
畳み込みニューラルネットワーク(CNN)は、不均衡な画像データに対して印象的な結果を得たが、それでも少数派に一般化することは困難である。
我々は、不均衡なデータに基づいてCNNの決定をデミスティフィケートする、彼らの潜在機能に焦点を当てる。
ニューラルネットワークがマイノリティクラスに一般化する能力に関する重要な情報は、クラストップKCEとFEに存在することを示す。
論文 参考訳(メタデータ) (2022-10-17T22:40:06Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Learning-From-Disagreement: A Model Comparison and Visual Analytics
Framework [21.055845469999532]
本稿では,2つの分類モデルを視覚的に比較するフレームワークを提案する。
具体的には、不一致のインスタンスから学ぶために差別者を訓練する。
我々は、訓練された識別器を、異なるメタ特徴のSHAP値で解釈する。
論文 参考訳(メタデータ) (2022-01-19T20:15:35Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Exploring the Interchangeability of CNN Embedding Spaces [0.5735035463793008]
画像分類CNN10点と顔認識CNN4点をマップする。
同じクラスにトレーニングされ、共通のバックエンド-ログアーキテクチャを共有するCNNの場合、リニアマッピングは常にバックエンド層重みから直接計算される。
この意味は遠く離れており、共通のタスクのために設計、訓練されたネットワークによって学習された表現間の基礎的な共通性を示している。
論文 参考訳(メタデータ) (2020-10-05T20:32:40Z) - Multilayer Dense Connections for Hierarchical Concept Classification [3.6093339545734886]
同じCNNで階層的な順序でカテゴリとその概念上のスーパークラスを同時予測するための多層密接続を提案する。
提案するネットワークは,複数のデータセットにおいて既存のアルゴリズムよりも粗いスーパークラスと細かなカテゴリの両方を同時に予測できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-19T20:56:09Z) - Learning Class Regularized Features for Action Recognition [68.90994813947405]
本稿では,階層活性化のクラスベース正規化を行うクラス正規化手法を提案する。
動作認識に最先端CNNアーキテクチャのクラス正規化ブロックを用いることで,Kineetics,UCF-101,HMDB-51データセットにおいて,それぞれ1.8%,1.2%,1.4%の体系的改善が得られた。
論文 参考訳(メタデータ) (2020-02-07T07:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。