論文の概要: Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning
- arxiv url: http://arxiv.org/abs/2102.11856v1
- Date: Tue, 23 Feb 2021 18:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 02:34:57.575410
- Title: Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning
- Title(参考訳): 連続的一般化ゼロショット学習のためのメタ学習属性自己制御
- Authors: Vinay Kumar Verma, Kevin Liang, Nikhil Mehta, Lawrence Carin
- Abstract要約: トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
- 参考スコア(独自算出の注目度): 82.07273754143547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot learning (ZSL) has been shown to be a promising approach to
generalizing a model to categories unseen during training by leveraging class
attributes, but challenges still remain. Recently, methods using generative
models to combat bias towards classes seen during training have pushed the
state of the art of ZSL, but these generative models can be slow or
computationally expensive to train. Additionally, while many previous ZSL
methods assume a one-time adaptation to unseen classes, in reality, the world
is always changing, necessitating a constant adjustment for deployed models.
Models unprepared to handle a sequential stream of data are likely to
experience catastrophic forgetting. We propose a meta-continual zero-shot
learning (MCZSL) approach to address both these issues. In particular, by
pairing self-gating of attributes and scaled class normalization with
meta-learning based training, we are able to outperform state-of-the-art
results while being able to train our models substantially faster
($>100\times$) than expensive generative-based approaches. We demonstrate this
by performing experiments on five standard ZSL datasets (CUB, aPY, AWA1, AWA2
and SUN) in both generalized zero-shot learning and generalized continual
zero-shot learning settings.
- Abstract(参考訳): ゼロショット学習(ZSL)は、クラス属性を活用することでトレーニング中に目に見えないカテゴリにモデルを一般化するための有望なアプローチであることが示されているが、依然として課題は残っている。
近年、訓練中のクラスに対する偏りに対処するために生成モデルを使用する手法がzslの技術を後押ししているが、これらの生成モデルは訓練に遅く、計算コストがかかる可能性がある。
さらに、従来のZSLメソッドの多くは、目に見えないクラスへのワンタイム適応を想定していますが、実際には、世界は常に変化しており、デプロイされたモデルに一定の調整が必要です。
シーケンシャルなデータストリームを扱う準備ができていないモデルは、破滅的な忘れを経験する可能性が高い。
これら2つの課題を解決するために,メタ継続的ゼロショット学習(MCZSL)手法を提案する。
特に,属性の自己ゲーティングと大規模クラス正規化をメタラーニングベースのトレーニングと組み合わせることで,高コストのジェネレーティブベースアプローチよりもはるかに高速なモデル(>100\times$)をトレーニングしながら,最先端の成果を達成できるのです。
我々は、一般化ゼロショット学習と一般化ゼロショット学習設定の両方において、5つの標準ZSLデータセット(CUB、aPY、AWA1、AWA2、SUN)で実験を行うことによってこれを実証する。
関連論文リスト
- Meta-Learned Attribute Self-Interaction Network for Continual and
Generalized Zero-Shot Learning [46.6282595346048]
ゼロショット学習(ZSL)は、トレーニング中のカテゴリーを見えないものに一般化するための有望なアプローチである。
連続的なZSLのためのMAIN(Meta-learned Attribute Self-Interaction Network)を提案する。
メタラーニングと属性エンコーダの逆正則化を用いて学習した属性をペアリングすることで、未知のクラス属性を活用することなく、最先端の成果を達成できる。
論文 参考訳(メタデータ) (2023-12-02T16:23:01Z) - Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - Evolutionary Generalized Zero-Shot Learning [19.278497273850316]
属性ベースのゼロショット学習(ZSL)は、トレーニング中に見えない新しいクラスを認識するモデルの能力に革命をもたらした。
進化的一般化ゼロショット学習(EGZSL)を提案する。
この設定により、低パフォーマンスのゼロショットモデルでテストデータストリームに適応し、オンラインで進化させることができる。
論文 参考訳(メタデータ) (2022-11-23T17:51:18Z) - Efficient Gaussian Process Model on Class-Imbalanced Datasets for
Generalized Zero-Shot Learning [37.00463358780726]
本稿では,潜在機能埋め込みを学習するニューラルネットワークモデルと,未確認クラスの潜在機能プロトタイプを予測するガウスプロセス(GP)回帰モデルを提案する。
我々のモデルは、クラス不均衡なトレーニングデータの影響を緩和する単純なトレーニング戦略により、効率的に訓練される。
論文 参考訳(メタデータ) (2022-10-11T04:57:20Z) - Dynamic VAEs with Generative Replay for Continual Zero-shot Learning [1.90365714903665]
本稿では,タスクごとにサイズが拡大する新しいゼロショット学習(DVGR-CZSL)モデルを提案する。
ZSL(Zero-Shot Learning)を用いた逐次学習において,本手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T10:56:43Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - Task Aligned Generative Meta-learning for Zero-shot Learning [64.16125851588437]
ゼロショット学習のためのタスク整合型ジェネラティブメタラーニングモデル(TGMZ)の提案
TGMZはバイアスのあるトレーニングを緩和し、メタZSLが多様な分布を含む現実世界のデータセットに対応できるようにする。
最先端アルゴリズムとの比較により,awa1,awa2,cub,apyデータセット上でtgmzが達成した2.1%,3.0%,2.5%,7.6%の改善が示された。
論文 参考訳(メタデータ) (2021-03-03T05:18:36Z) - Generative Replay-based Continual Zero-Shot Learning [7.909034037183046]
再生再生型連続ZSL(GRCZSL)を開発した。
提案手法は従来のZSLにストリーミングデータから学び、以前のタスクの経験を忘れることなく新しい知識を得ることができる。
GRZSL法は,実世界の問題設定をシミュレートした連続学習の単一ヘッド設定のために開発された。
論文 参考訳(メタデータ) (2021-01-22T00:03:34Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。