論文の概要: Efficient Gaussian Process Model on Class-Imbalanced Datasets for
Generalized Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2210.06120v1
- Date: Tue, 11 Oct 2022 04:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:56:30.082734
- Title: Efficient Gaussian Process Model on Class-Imbalanced Datasets for
Generalized Zero-Shot Learning
- Title(参考訳): 一般化ゼロショット学習のためのクラス不均衡データセットの効率的なガウス過程モデル
- Authors: Changkun Ye, Nick Barnes, Lars Petersson and Russell Tsuchida
- Abstract要約: 本稿では,潜在機能埋め込みを学習するニューラルネットワークモデルと,未確認クラスの潜在機能プロトタイプを予測するガウスプロセス(GP)回帰モデルを提案する。
我々のモデルは、クラス不均衡なトレーニングデータの影響を緩和する単純なトレーニング戦略により、効率的に訓練される。
- 参考スコア(独自算出の注目度): 37.00463358780726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-Shot Learning (ZSL) models aim to classify object classes that are not
seen during the training process. However, the problem of class imbalance is
rarely discussed, despite its presence in several ZSL datasets. In this paper,
we propose a Neural Network model that learns a latent feature embedding and a
Gaussian Process (GP) regression model that predicts latent feature prototypes
of unseen classes. A calibrated classifier is then constructed for ZSL and
Generalized ZSL tasks. Our Neural Network model is trained efficiently with a
simple training strategy that mitigates the impact of class-imbalanced training
data. The model has an average training time of 5 minutes and can achieve
state-of-the-art (SOTA) performance on imbalanced ZSL benchmark datasets like
AWA2, AWA1 and APY, while having relatively good performance on the SUN and CUB
datasets.
- Abstract(参考訳): Zero-Shot Learning (ZSL)モデルは、トレーニングプロセス中に見られないオブジェクトクラスを分類することを目的としている。
しかし、いくつかのZSLデータセットに存在するにもかかわらず、クラス不均衡の問題はほとんど議論されない。
本稿では,潜時特徴埋め込みを学習するニューラルネットワークモデルと,未確認クラスの潜時特徴プロトタイプを予測するガウス過程(GP)回帰モデルを提案する。
次に、ZSLと一般化ZSLタスクのための校正分類器を構築する。
我々のニューラルネットワークモデルは、クラス不均衡なトレーニングデータの影響を緩和する単純なトレーニング戦略で効率的に訓練される。
モデルの平均トレーニング時間は5分で、awa2、awa1、apyなどの不均衡なzslベンチマークデータセットで最先端(sota)パフォーマンスを達成でき、sunおよびcubデータセットでは比較的優れたパフォーマンスを実現している。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - Meta-Learned Attribute Self-Interaction Network for Continual and
Generalized Zero-Shot Learning [46.6282595346048]
ゼロショット学習(ZSL)は、トレーニング中のカテゴリーを見えないものに一般化するための有望なアプローチである。
連続的なZSLのためのMAIN(Meta-learned Attribute Self-Interaction Network)を提案する。
メタラーニングと属性エンコーダの逆正則化を用いて学習した属性をペアリングすることで、未知のクラス属性を活用することなく、最先端の成果を達成できる。
論文 参考訳(メタデータ) (2023-12-02T16:23:01Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z) - BASIL: Balanced Active Semi-supervised Learning for Class Imbalanced
Datasets [14.739359755029353]
現在の半教師付き学習(SSL)メソッドは、ラベル付きデータセットとラベルなしデータセットの両方で、各クラスで利用可能なデータポイントの数の間のバランスを前提としている。
本研究では,サブモジュール相互情報(SMI)関数をクラスごとに最適化し,アクティブな学習ループにおけるバランスの取れたデータセットを徐々に選択するアルゴリズムであるBASILを提案する。
論文 参考訳(メタデータ) (2022-03-10T21:34:08Z) - Dynamic VAEs with Generative Replay for Continual Zero-shot Learning [1.90365714903665]
本稿では,タスクごとにサイズが拡大する新しいゼロショット学習(DVGR-CZSL)モデルを提案する。
ZSL(Zero-Shot Learning)を用いた逐次学習において,本手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T10:56:43Z) - Task Aligned Generative Meta-learning for Zero-shot Learning [64.16125851588437]
ゼロショット学習のためのタスク整合型ジェネラティブメタラーニングモデル(TGMZ)の提案
TGMZはバイアスのあるトレーニングを緩和し、メタZSLが多様な分布を含む現実世界のデータセットに対応できるようにする。
最先端アルゴリズムとの比較により,awa1,awa2,cub,apyデータセット上でtgmzが達成した2.1%,3.0%,2.5%,7.6%の改善が示された。
論文 参考訳(メタデータ) (2021-03-03T05:18:36Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - Towards Zero-Shot Learning with Fewer Seen Class Examples [41.751885300474925]
ゼロショット学習(ZSL)のためのメタ学習に基づく生成モデルを提案する。
この設定は従来のZSLアプローチとは対照的であり、トレーニングは通常、各クラスから十分な数のトレーニングサンプルが利用可能であると仮定する。
筆者らは,ZSLの4つのベンチマークデータセットに関する広範囲な実験およびアブレーション研究を行い,提案モデルが実例数が非常に小さい場合に,最先端のアプローチよりも優れた性能を示すことを示した。
論文 参考訳(メタデータ) (2020-11-14T11:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。