論文の概要: Test-Time Amendment with a Coarse Classifier for Fine-Grained
Classification
- arxiv url: http://arxiv.org/abs/2302.00368v2
- Date: Mon, 30 Oct 2023 09:21:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 04:08:42.483388
- Title: Test-Time Amendment with a Coarse Classifier for Fine-Grained
Classification
- Title(参考訳): きめ細かい分類のための粗分類器によるテスト時間修正
- Authors: Kanishk Jain, Shyamgopal Karthik, Vineet Gandhi
- Abstract要約: 階層的アンサンブル(HiE)と呼ばれるポストホック補正のための新しいアプローチを提案する。
HiEはラベル階層を利用して、粗い粒度予測を用いてテスト時のきめ細かい分類の性能を向上させる。
提案手法は,細粒度クラスにおいてトレーニングデータが減少するにつれて,誤りの重大度が著しく低下する一方で,トップ1の精度において顕著な向上をもたらす。
- 参考スコア(独自算出の注目度): 10.719054378755981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the problem of reducing mistake severity for fine-grained
classification. Fine-grained classification can be challenging, mainly due to
the requirement of domain expertise for accurate annotation. However, humans
are particularly adept at performing coarse classification as it requires
relatively low levels of expertise. To this end, we present a novel approach
for Post-Hoc Correction called Hierarchical Ensembles (HiE) that utilizes label
hierarchy to improve the performance of fine-grained classification at
test-time using the coarse-grained predictions. By only requiring the parents
of leaf nodes, our method significantly reduces avg. mistake severity while
improving top-1 accuracy on the iNaturalist-19 and tieredImageNet-H datasets,
achieving a new state-of-the-art on both benchmarks. We also investigate the
efficacy of our approach in the semi-supervised setting. Our approach brings
notable gains in top-1 accuracy while significantly decreasing the severity of
mistakes as training data decreases for the fine-grained classes. The
simplicity and post-hoc nature of HiE renders it practical to be used with any
off-the-shelf trained model to improve its predictions further.
- Abstract(参考訳): 細粒度分類における誤り重大度低減の問題について検討する。
きめ細かい分類は、主に正確なアノテーションのためのドメインの専門知識を必要とするため困難である。
しかしながら、人間は比較的低いレベルの専門知識を必要とするため、特に粗い分類を行うのに適している。
そこで本研究では,ラベル階層を用いた階層的アンサンブル(hie)と呼ばれるポストホック補正手法を提案する。
葉ノードの親のみを必要とすることにより,avgを有意に減少させる。
iNaturalist-19とタイトされたImageNet-HデータセットのTop-1精度を改善し、両方のベンチマークで新たな最先端を達成した。
また,本手法の有効性についても検討した。
提案手法は,細粒度クラスにおいてトレーニングデータが減少するにつれて,誤りの重大度が著しく低下する一方で,トップ1の精度において顕著な向上をもたらす。
hieの単純でポストホックな性質は、この予測をさらに改善するために、市販のトレーニング済みモデルでの使用を実用的にします。
関連論文リスト
- Extract More from Less: Efficient Fine-Grained Visual Recognition in Low-Data Regimes [0.22499166814992438]
本稿では,この課題に対するディープニューラルネットワークの性能向上を目的とした,AD-Netと呼ばれる新しいフレームワークを提案する。
特に, 本手法は, 強化試料を自己蒸留し, 有害なオーバーフィッティングを緩和することにより, 学習機能を洗練することを目的としている。
最小限のデータで、我々のフレームワークは、最大で45%の精度で顕著な相対的正確性を示した。
論文 参考訳(メタデータ) (2024-06-28T10:45:25Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - A Saliency-based Clustering Framework for Identifying Aberrant
Predictions [49.1574468325115]
本稿では, 異常予測の概念を導入し, 分類誤差の性質が頻度と同じくらい重要であることを強調した。
本稿では,誤分類率の低減と異常予測の識別を両立する,新しい,効率的なトレーニング手法を提案する。
本手法を獣医学の分野である獣医学の分野に応用し, 被曝率は高いが, 人体医学に比べて広く研究されていない。
論文 参考訳(メタデータ) (2023-11-11T01:53:59Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Hierarchical Average Precision Training for Pertinent Image Retrieval [0.0]
本稿では,HAP-PIER (Pertinent Image Search) のための階層型APトレーニング手法を提案する。
HAP-PIERは、エラーの重要性とランキングのより良い評価を統合する新しいH-APメトリックに基づいている。
6つのデータセットの実験により、HAPPIERは階層的検索において最先端の手法を大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2022-07-05T07:55:18Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Coarse2Fine: Fine-grained Text Classification on Coarsely-grained
Annotated Data [22.81068960545234]
本稿では,粗い注釈付きデータに対して,きめ細かい分類を行うことを目的とした,粗い粒度分類と呼ばれる新しい問題を提案する。
新しいきめ細かい人間のアノテーションを求める代わりに、ラベル表面の名前のみを人間の手引きとして活用することにしました。
我々のフレームワークは、微調整された生成モデルを用いて、擬似学習データをサンプリングし、分類器を訓練し、実際のラベルなしデータをブートストラップしてモデル修正を行う。
論文 参考訳(メタデータ) (2021-09-22T17:29:01Z) - No Cost Likelihood Manipulation at Test Time for Making Better Mistakes
in Deep Networks [17.55334996757232]
階層認識分類には条件付きリスク最小化(crm)フレームワークを用いる。
コストマトリクスと信頼できる推定値を考えると、CRMは単に推論時のミスを修正します。
これは最先端を著しく上回り、一貫してトップ$k$予測の平均階層距離を大きく削減する。
論文 参考訳(メタデータ) (2021-04-01T22:40:25Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。