論文の概要: Learning Hierarchy Aware Features for Reducing Mistake Severity
- arxiv url: http://arxiv.org/abs/2207.12646v1
- Date: Tue, 26 Jul 2022 04:24:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:49:34.967301
- Title: Learning Hierarchy Aware Features for Reducing Mistake Severity
- Title(参考訳): 誤り度低減のための階層型認識機能学習
- Authors: Ashima Garg, Depanshu Sani, Saket Anand
- Abstract要約: 階層認識機能(HAF)を学習するための新しいアプローチを提案する。
HAFは、トップ1エラーを維持しながらミスを改善するトレーニングタイムアプローチであり、すべてのミスを平等に扱うクロスエントロピー損失の問題に対処する。
我々は,3つの階層的データセット上でHAFを評価し,iNaturalist-19およびCIFAR-100データセットの最先端結果を得た。
- 参考スコア(独自算出の注目度): 3.704832909610283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label hierarchies are often available apriori as part of biological taxonomy
or language datasets WordNet. Several works exploit these to learn hierarchy
aware features in order to improve the classifier to make semantically
meaningful mistakes while maintaining or reducing the overall error. In this
paper, we propose a novel approach for learning Hierarchy Aware Features (HAF)
that leverages classifiers at each level of the hierarchy that are constrained
to generate predictions consistent with the label hierarchy. The classifiers
are trained by minimizing a Jensen-Shannon Divergence with target soft labels
obtained from the fine-grained classifiers. Additionally, we employ a simple
geometric loss that constrains the feature space geometry to capture the
semantic structure of the label space. HAF is a training time approach that
improves the mistakes while maintaining top-1 error, thereby, addressing the
problem of cross-entropy loss that treats all mistakes as equal. We evaluate
HAF on three hierarchical datasets and achieve state-of-the-art results on the
iNaturalist-19 and CIFAR-100 datasets. The source code is available at
https://github.com/07Agarg/HAF
- Abstract(参考訳): ラベル階層は、生物学的分類学またはWordNetの言語データセットの一部としてしばしば利用できる。
いくつかの作業では、階層性を考慮した機能を学び、分類器を改良し、全体的なエラーを維持したり減らしたりしながら意味的に意味のある間違いを犯す。
本稿では,階層構造に整合した予測を生成するために制約された階層のレベル毎に分類器を利用する階層認識特徴(HAF)を学習するための新しいアプローチを提案する。
細粒度分類器から得られるターゲットソフトラベルとジェンセン・シャノン分岐を最小化して分類器を訓練する。
さらに,特徴空間の幾何学的構造を制約する単純な幾何学的損失を用いてラベル空間の意味的構造を捉える。
HAFは、トップ1エラーを維持しながらミスを改善するトレーニングタイムアプローチであり、すべてのミスを平等に扱うクロスエントロピー損失の問題に対処する。
我々は,3つの階層的データセット上でHAFを評価し,iNaturalist-19およびCIFAR-100データセットの最先端結果を得た。
ソースコードはhttps://github.com/07agarg/hafで入手できる。
関連論文リスト
- Harnessing Superclasses for Learning from Hierarchical Databases [1.835004446596942]
多くの大規模分類問題において、クラスは既知の階層に整理され、通常木として表される。
この種の教師付き階層分類の損失について紹介する。
提案手法では,クロスエントロピーの損失に比較して,計算コストの大幅な増大は伴わない。
論文 参考訳(メタデータ) (2024-11-25T14:39:52Z) - Inducing Neural Collapse to a Fixed Hierarchy-Aware Frame for Reducing
Mistake Severity [0.0]
深層ニューラルネットワークの線形分類器を階層認識フレーム(HAFrame)に固定することを提案する。
提案手法は,複数のデータセット上でトップ1の精度を維持しながら,モデルの予測ミスの深刻度を低減する。
論文 参考訳(メタデータ) (2023-03-10T03:44:01Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Rank-based loss for learning hierarchical representations [7.421724671710886]
機械学習では、"extra"情報を使用するメソッドのファミリーを階層分類(hierarchical classification)と呼ぶ。
ここでは、階層的関係を表す埋め込みを学習するために、問題の階層的情報を統合する方法に焦点を当てる。
ランクに基づく損失はデータの階層的表現を学習するのに適していることを示す。
論文 参考訳(メタデータ) (2021-10-11T10:32:45Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Exploring the Hierarchy in Relation Labels for Scene Graph Generation [75.88758055269948]
提案手法は,Recall@50において,複数の最先端ベースラインを大きなマージン(最大33%の相対利得)で改善することができる。
実験により,提案手法により,最先端のベースラインを大きなマージンで改善できることが示された。
論文 参考訳(メタデータ) (2020-09-12T17:36:53Z) - Hierarchical Class-Based Curriculum Loss [18.941207332233805]
ほとんどの実世界のデータにはラベル間の依存関係があり、階層構造を使ってキャプチャできる。
i) ラベル空間に存在する階層的制約を満たすことと, (ii) 階層のレベルに基づいてラベルに一様でない重みを与えるという2つの特性を持つ損失関数, 階層的カリキュラム損失を提案する。
論文 参考訳(メタデータ) (2020-06-05T18:48:57Z) - Self-Learning with Rectification Strategy for Human Parsing [73.06197841003048]
擬似ラベルの2つの典型的な誤りを補正する訓練可能なグラフ推論法を提案する。
再構成された特徴は、人体のトポロジー構造を表現する能力が強い。
本手法は、教師付き人間の解析作業において、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-17T03:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。