論文の概要: Inspecting class hierarchies in classification-based metric learning
models
- arxiv url: http://arxiv.org/abs/2301.11065v1
- Date: Thu, 26 Jan 2023 12:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 13:42:27.975096
- Title: Inspecting class hierarchies in classification-based metric learning
models
- Title(参考訳): 分類に基づく計量学習モデルにおけるクラス階層の検査
- Authors: Hyeongji Kim, Pekka Parviainen, Terje Berge and Ketil Malde
- Abstract要約: 我々は、ベンチマークと実世界のデータセット上で、いくつかのトレーニングオプションを備えたソフトマックス分類器と3つのメトリック学習モデルを訓練する。
我々は,学習したクラスの代表者や階層的インフォームドのパフォーマンス,すなわち分類性能とメートル法学習性能を事前に定義された階層構造を考慮し,階層的推論性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most classification models treat all misclassifications equally. However,
different classes may be related, and these hierarchical relationships must be
considered in some classification problems. These problems can be addressed by
using hierarchical information during training. Unfortunately, this information
is not available for all datasets. Many classification-based metric learning
methods use class representatives in embedding space to represent different
classes. The relationships among the learned class representatives can then be
used to estimate class hierarchical structures. If we have a predefined class
hierarchy, the learned class representatives can be assessed to determine
whether the metric learning model learned semantic distances that match our
prior knowledge. In this work, we train a softmax classifier and three metric
learning models with several training options on benchmark and real-world
datasets. In addition to the standard classification accuracy, we evaluate the
hierarchical inference performance by inspecting learned class representatives
and the hierarchy-informed performance, i.e., the classification performance,
and the metric learning performance by considering predefined hierarchical
structures. Furthermore, we investigate how the considered measures are
affected by various models and training options. When our proposed ProxyDR
model is trained without using predefined hierarchical structures, the
hierarchical inference performance is significantly better than that of the
popular NormFace model. Additionally, our model enhances some
hierarchy-informed performance measures under the same training options. We
also found that convolutional neural networks (CNNs) with random weights
correspond to the predefined hierarchies better than random chance.
- Abstract(参考訳): ほとんどの分類モデルは全ての誤分類を等しく扱う。
しかし、異なるクラスは関連しており、これらの階層的関係はいくつかの分類問題において考慮されなければならない。
これらの問題は、トレーニング中に階層情報を使用することで対処できる。
残念ながら、この情報はすべてのデータセットで利用できない。
多くの分類に基づく計量学習法は、異なるクラスを表現するために埋め込み空間におけるクラス代表を用いる。
学習したクラスの代表者間の関係は、クラス階層構造の推定に使用できる。
事前に定義されたクラス階層がある場合、学習したクラス代表者は、メトリック学習モデルが以前の知識と一致する意味的距離を学習したかどうかを判断することができる。
本研究では,ベンチマークと実世界のデータセットで,ソフトマックス分類器と3つのメトリック学習モデルを訓練する。
標準分類精度に加えて,学習したクラスの代表者や階層的インフォームドのパフォーマンス,すなわち分類性能や計量学習性能を事前に定義された階層構造を考慮し,階層的推論性能を評価する。
さらに,様々なモデルやトレーニングの選択肢によって,検討対象がどう影響を受けるかを検討する。
提案するProxyDRモデルは,事前定義された階層構造を使わずにトレーニングされる場合,階層推論性能は人気のあるNormFaceモデルよりも大幅に向上する。
さらに,本モデルでは,同一のトレーニングオプション下での階層的インフォームドパフォーマンス対策も強化する。
また,ランダム重み付き畳み込みニューラルネットワーク(cnns)は,ランダム確率よりも事前定義された階層に対応することが分かった。
関連論文リスト
- Harnessing Superclasses for Learning from Hierarchical Databases [1.835004446596942]
多くの大規模分類問題において、クラスは既知の階層に整理され、通常木として表される。
この種の教師付き階層分類の損失について紹介する。
提案手法では,クロスエントロピーの損失に比較して,計算コストの大幅な増大は伴わない。
論文 参考訳(メタデータ) (2024-11-25T14:39:52Z) - A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - A Top-down Supervised Learning Approach to Hierarchical Multi-label
Classification in Networks [0.21485350418225244]
本稿では,階層型マルチラベル分類(HMC)に対する一般的な予測モデルを提案する。
クラスごとの局所分類器を構築することで教師あり学習により階層的マルチラベル分類に対処するトップダウン分類アプローチに基づいている。
本モデルでは, イネOryza sativa Japonicaの遺伝子機能の予測について事例研究を行った。
論文 参考訳(メタデータ) (2022-03-23T17:29:17Z) - Rank4Class: A Ranking Formulation for Multiclass Classification [26.47229268790206]
マルチクラス分類(MCC)は基本的な機械学習問題である。
ランキングのレンズを通した新しい定式化により,MCCの性能を向上させることは容易であることを示す。
論文 参考訳(メタデータ) (2021-12-17T19:22:37Z) - Hierarchical Variational Memory for Few-shot Learning Across Domains [120.87679627651153]
本稿では,プロトタイプの各レベルが階層メモリから対応する情報を取得する階層型プロトタイプモデルを提案する。
このモデルには、ドメインシフトの状況が要求される場合、異なるセマンティックレベルの機能を柔軟に依存する能力が備わっている。
モデルにおける各コンポーネントの有効性を示すために、徹底的なアブレーション研究を行っている。
論文 参考訳(メタデータ) (2021-12-15T15:01:29Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Inducing a hierarchy for multi-class classification problems [11.58041597483471]
分類的ラベルが自然な階層に従ったアプリケーションでは、ラベル構造を利用する分類方法は、そうでないものをしばしば上回る。
本稿では,フラット分類器に対する分類性能を向上できる階層構造を誘導する手法のクラスについて検討する。
原理シミュレーションと3つの実データアプリケーションにおいて、潜入階層の発見と精度向上のためのメソッドのクラスの有効性を実証する。
論文 参考訳(メタデータ) (2021-02-20T05:40:42Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Meta Learning for Few-Shot One-class Classification [0.0]
メタ学習問題として,一級分類における意味のある特徴の学習を定式化する。
これらの表現を学習するには、類似したタスクからのマルチクラスデータのみが必要である。
数ショットの分類データセットを、数ショットの1クラスの分類シナリオに適応させることで、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2020-09-11T11:35:28Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。