論文の概要: Entropy-Based Uncertainty Calibration for Generalized Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2101.03292v1
- Date: Sat, 9 Jan 2021 05:21:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 07:23:45.291438
- Title: Entropy-Based Uncertainty Calibration for Generalized Zero-Shot Learning
- Title(参考訳): 一般化ゼロショット学習のためのエントロピーに基づく不確かさ校正
- Authors: Zhi Chen, Zi Huang, Jingjing Li, Zheng Zhang
- Abstract要約: 一般化ゼロショット学習(GZSL)の目的は、目に見えないクラスと見えないクラスの両方を認識することである。
ほとんどのGZSLメソッドは、通常、見えないクラスの意味情報から視覚表現を合成することを学ぶ。
本論文では,三重項損失を持つ2重変分オートエンコーダを利用する新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 49.04790688256481
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared to conventional zero-shot learning (ZSL) where recognising unseen
classes is the primary or only aim, the goal of generalized zero-shot learning
(GZSL) is to recognise both seen and unseen classes. Most GZSL methods
typically learn to synthesise visual representations from semantic information
on the unseen classes. However, these types of models are prone to overfitting
the seen classes, resulting in distribution overlap between the generated
features of the seen and unseen classes. The overlapping region is filled with
uncertainty as the model struggles to determine whether a test case from within
the overlap is seen or unseen. Further, these generative methods suffer in
scenarios with sparse training samples. The models struggle to learn the
distribution of high dimensional visual features and, therefore, fail to
capture the most discriminative inter-class features. To address these issues,
in this paper, we propose a novel framework that leverages dual variational
autoencoders with a triplet loss to learn discriminative latent features and
applies the entropy-based calibration to minimize the uncertainty in the
overlapped area between the seen and unseen classes. Specifically, the dual
generative model with the triplet loss synthesises inter-class discriminative
latent features that can be mapped from either visual or semantic space. To
calibrate the uncertainty for seen classes, we calculate the entropy over the
softmax probability distribution from a general classifier. With this approach,
recognising the seen samples within the seen classes is relatively
straightforward, and there is less risk that a seen sample will be
misclassified into an unseen class in the overlapped region. Extensive
experiments on six benchmark datasets demonstrate that the proposed method
outperforms state-of-the-art approaches.
- Abstract(参考訳): 一般ゼロショット学習 (gzsl) は, 既定のゼロショット学習 (zsl) が主目的あるいは唯一の目的であるのに対し, 一般ゼロショット学習 (gzsl) の目標は, 視認クラスと視認クラスの両方を認識することである。
ほとんどのGZSLメソッドは、通常、目に見えないクラスのセマンティック情報から視覚表現を合成することを学ぶ。
しかし、これらのタイプのモデルは見掛けられたクラスを過度に満たす傾向にあり、見掛けられたクラスと見当たらないクラスの生成されたフィーチャの間で分布の重なりが生じる。
重なり合う領域は、モデルが重なり合う部分からテストケースが見えるか見えないかを決定するのに苦労するため不確実性に満ちている。
さらに、これらの生成方法はスパーストレーニングサンプルのシナリオに苦しむ。
モデルは高次元の視覚的特徴の分布を学習するのに苦労し、したがって最も差別的なクラス間特徴を捉えられなかった。
本稿では,二変分オートエンコーダと三重項損失を利用して識別潜在特徴を学習し,エントロピーに基づくキャリブレーションを適用し,両クラス間の重複領域の不確実性を最小化する手法を提案する。
特に、三重項損失合成を持つ双対生成モデルは、視覚空間または意味空間からマッピングできるクラス間の判別的潜在性特徴を持つ。
授業の不確実性を校正するために,一般分類器からソフトマックス確率分布のエントロピーを計算する。
このアプローチでは、目に見えないクラス内のサンプルを認識することは比較的簡単であり、見ないサンプルが重複した領域の見えないクラスに誤分類されるリスクは低い。
6つのベンチマークデータセットに関する広範な実験は、提案手法が最先端のアプローチよりも優れていることを示している。
関連論文リスト
- Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - Resolving Semantic Confusions for Improved Zero-Shot Detection [6.72910827751713]
本稿では,クラス間の相違度を認識する三重項損失を考慮した生成モデルを提案する。
クラスの生成した視覚的サンプルが、自身のセマンティクスに高度に対応していることを保証するために、サイクリック一貫性損失も実施される。
論文 参考訳(メタデータ) (2022-12-12T18:11:48Z) - Self-Supervised Learning by Estimating Twin Class Distributions [26.7828253129684]
本稿では,大規模未ラベルデータセットをエンドツーエンドに分類し,自己教師付き表現学習手法TWISTを提案する。
2つの拡張画像の2つのクラス分布を生成するために、ソフトマックス演算で終了するシマセネットワークを用いる。
具体的には、各サンプルの分布のエントロピーを最小化し、各サンプルのクラス予測を行い、平均分布のエントロピーを最大化し、異なるサンプルの予測を多様化させる。
論文 参考訳(メタデータ) (2021-10-14T14:39:39Z) - Unsupervised Embedding Learning from Uncertainty Momentum Modeling [37.674449317054716]
本研究では,与えられた未ラベル学習サンプルの不確かさを明示的にモデル化し,探索する新しい手法を提案する。
このような不確実性モデリングのモーメントを学習に利用し、アウトレーヤに取り組むのに役立ちます。
論文 参考訳(メタデータ) (2021-07-19T14:06:19Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - A Boundary Based Out-of-Distribution Classifier for Generalized
Zero-Shot Learning [83.1490247844899]
Generalized Zero-Shot Learning (GZSL)は多くの現実的なシナリオにおいて有望な見通しを持つ挑戦的なトピックである。
本研究では,見知らぬ領域を学習用サンプルのみを用いて分類する境界に基づくアウト・オブ・ディストリビューション(OOD)分類器を提案する。
我々は、AWA1、AWA2、CUB、FLO、SUNを含む5つの人気のあるベンチマークデータセットに対して、我々のアプローチを広範囲に検証する。
論文 参考訳(メタデータ) (2020-08-09T11:27:19Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。