論文の概要: Towards Zero-Shot Learning with Fewer Seen Class Examples
- arxiv url: http://arxiv.org/abs/2011.07279v1
- Date: Sat, 14 Nov 2020 11:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 13:36:04.602199
- Title: Towards Zero-Shot Learning with Fewer Seen Class Examples
- Title(参考訳): クラス例の少ないゼロショット学習に向けて
- Authors: Vinay Kumar Verma, Ashish Mishra, Anubha Pandey, Hema A. Murthy and
Piyush Rai
- Abstract要約: ゼロショット学習(ZSL)のためのメタ学習に基づく生成モデルを提案する。
この設定は従来のZSLアプローチとは対照的であり、トレーニングは通常、各クラスから十分な数のトレーニングサンプルが利用可能であると仮定する。
筆者らは,ZSLの4つのベンチマークデータセットに関する広範囲な実験およびアブレーション研究を行い,提案モデルが実例数が非常に小さい場合に,最先端のアプローチよりも優れた性能を示すことを示した。
- 参考スコア(独自算出の注目度): 41.751885300474925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a meta-learning based generative model for zero-shot learning
(ZSL) towards a challenging setting when the number of training examples from
each \emph{seen} class is very few. This setup contrasts with the conventional
ZSL approaches, where training typically assumes the availability of a
sufficiently large number of training examples from each of the seen classes.
The proposed approach leverages meta-learning to train a deep generative model
that integrates variational autoencoder and generative adversarial networks. We
propose a novel task distribution where meta-train and meta-validation classes
are disjoint to simulate the ZSL behaviour in training. Once trained, the model
can generate synthetic examples from seen and unseen classes. Synthesize
samples can then be used to train the ZSL framework in a supervised manner. The
meta-learner enables our model to generates high-fidelity samples using only a
small number of training examples from seen classes. We conduct extensive
experiments and ablation studies on four benchmark datasets of ZSL and observe
that the proposed model outperforms state-of-the-art approaches by a
significant margin when the number of examples per seen class is very small.
- Abstract(参考訳): 本稿では,ゼロショット学習(ZSL)のためのメタラーニングに基づく生成モデルを提案する。
この設定は従来のZSLアプローチとは対照的であり、トレーニングは通常、各クラスから十分な数のトレーニングサンプルが利用可能であると仮定する。
提案手法はメタラーニングを利用して,可変オートエンコーダと生成対向ネットワークを統合した深層生成モデルを訓練する。
本稿では,学習におけるZSL動作をシミュレートするために,メタトレインとメタバリデーションクラスが分離されたタスク分布を提案する。
一度トレーニングすると、モデルは、見知らぬクラスと見当たらないクラスから合成例を生成することができる。
合成サンプルを使用して、ZSLフレームワークを教師付きでトレーニングすることができる。
メタラーナーにより,本モデルでは,少数の学習例のみを用いて高忠実度サンプルを生成することができる。
筆者らは,ZSLの4つのベンチマークデータセットに対する広範な実験およびアブレーション研究を行い,提案モデルが実例数が非常に小さい場合に,最先端のアプローチよりも優れた性能を示すことを示した。
関連論文リスト
- Meta-Learned Attribute Self-Interaction Network for Continual and
Generalized Zero-Shot Learning [46.6282595346048]
ゼロショット学習(ZSL)は、トレーニング中のカテゴリーを見えないものに一般化するための有望なアプローチである。
連続的なZSLのためのMAIN(Meta-learned Attribute Self-Interaction Network)を提案する。
メタラーニングと属性エンコーダの逆正則化を用いて学習した属性をペアリングすることで、未知のクラス属性を活用することなく、最先端の成果を達成できる。
論文 参考訳(メタデータ) (2023-12-02T16:23:01Z) - Efficient Gaussian Process Model on Class-Imbalanced Datasets for
Generalized Zero-Shot Learning [37.00463358780726]
本稿では,潜在機能埋め込みを学習するニューラルネットワークモデルと,未確認クラスの潜在機能プロトタイプを予測するガウスプロセス(GP)回帰モデルを提案する。
我々のモデルは、クラス不均衡なトレーニングデータの影響を緩和する単純なトレーニング戦略により、効率的に訓練される。
論文 参考訳(メタデータ) (2022-10-11T04:57:20Z) - An Iterative Co-Training Transductive Framework for Zero Shot Learning [24.401200814880124]
本稿では、2つの異なるベースZSLモデルと交換モジュールを含む反復的協調学習フレームワークを提案する。
各イテレーションにおいて、2つの異なるZSLモデルは、目に見えないクラスサンプルの擬似ラベルを別々に予測するために、共同訓練される。
我々のフレームワークは、2つのモデルの分類能力の潜在的な相補性をフル活用することで、ZSLの性能を徐々に向上させることができる。
論文 参考訳(メタデータ) (2022-03-30T04:08:44Z) - Semantics-driven Attentive Few-shot Learning over Clean and Noisy
Samples [0.0]
メタラーナーモデルを学習し、新しいクラスに関する事前の意味知識を活用して分類器合成プロセスを導くことを目指している。
特に,表現次元とトレーニングインスタンスの重要性を推定する意味条件付き特徴注意機構とサンプル注意機構を提案する。
論文 参考訳(メタデータ) (2022-01-09T16:16:23Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - On Data-Augmentation and Consistency-Based Semi-Supervised Learning [77.57285768500225]
最近提案された整合性に基づく半教師付き学習(SSL)手法は,複数のSSLタスクにおいて最先端技術である。
これらの進歩にもかかわらず、これらの手法の理解はまだ比較的限られている。
論文 参考訳(メタデータ) (2021-01-18T10:12:31Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。