論文の概要: Generalized Continual Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2011.08508v3
- Date: Mon, 1 Feb 2021 02:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 16:46:58.859667
- Title: Generalized Continual Zero-Shot Learning
- Title(参考訳): 一般化された連続ゼロショット学習
- Authors: Chandan Gautam, Sethupathy Parameswaran, Ashish Mishra, Suresh
Sundaram
- Abstract要約: ゼロショット学習(ZSL)は、クラス記述に基づいて、見知らぬクラスから見つからないクラスに知識を移すことによって、目に見えないクラスを分類することを目的としている。
本稿では,タスクの形式でクラスが順次到着するZSLについて,より汎用的で実用的な設定を提案する。
我々は、知識蒸留と、それ以前のタスクからの少数のサンプルの保存と再生を、小さなエピソードメモリを用いて行っている。
- 参考スコア(独自算出の注目度): 7.097782028036196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, zero-shot learning (ZSL) emerged as an exciting topic and attracted
a lot of attention. ZSL aims to classify unseen classes by transferring the
knowledge from seen classes to unseen classes based on the class description.
Despite showing promising performance, ZSL approaches assume that the training
samples from all seen classes are available during the training, which is
practically not feasible. To address this issue, we propose a more generalized
and practical setup for ZSL, i.e., continual ZSL (CZSL), where classes arrive
sequentially in the form of a task and it actively learns from the changing
environment by leveraging the past experience. Further, to enhance the
reliability, we develop CZSL for a single head continual learning setting where
task identity is revealed during the training process but not during the
testing. To avoid catastrophic forgetting and intransigence, we use knowledge
distillation and storing and replay the few samples from previous tasks using a
small episodic memory. We develop baselines and evaluate generalized CZSL on
five ZSL benchmark datasets for two different settings of continual learning:
with and without class incremental. Moreover, CZSL is developed for two types
of variational autoencoders, which generates two types of features for
classification: (i) generated features at output space and (ii) generated
discriminative features at the latent space. The experimental results clearly
indicate the single head CZSL is more generalizable and suitable for practical
applications.
- Abstract(参考訳): 最近、ゼロショット学習(ZSL)がエキサイティングなトピックとして登場し、多くの注目を集めた。
zslは、見知らぬクラスからの知識をクラス記述に基づいて見知らぬクラスに移すことで、見当たらないクラスを分類することを目指している。
有望なパフォーマンスを示しているにもかかわらず、ZSLのアプローチは、すべてのクラスからのトレーニングサンプルがトレーニング中に利用可能であると仮定している。
そこで本研究では,タスクの形式でクラスが順次到着するZSL(Continuousal ZSL, CZSL)のより汎用的で実用的な設定を提案し,過去の経験を生かして変化する環境から積極的に学習する。
さらに、信頼性を高めるために、トレーニングプロセス中にタスクアイデンティティが明らかにされるが、テスト中には明らかにされない、単一ヘッド連続学習環境のCZSLを開発する。
破滅的な忘れと不透明を避けるため,我々は知識蒸留と,それ以前のタスクからのサンプルの保存と再生を,小さなエピソードメモリを用いて行う。
我々は,5つのzslベンチマークデータセット上で,連続学習の2つの異なる設定のためのベースラインを開発し,一般化されたczslを評価する。
さらに、czslは2種類の変分オートエンコーダに対して開発され、分類のために2種類の特徴を生成する。
(i)出力空間に生成した特徴と
(ii)潜在空間における識別的特徴を生じる。
実験結果から, 単一頭部CZSLはより一般化可能で, 実用に適していることが明らかとなった。
関連論文リスト
- A Survey on Self-supervised Learning: Algorithms, Applications, and Future Trends [82.64268080902742]
自己教師付き学習(SSL)は、ラベル付きラベルを頼らずにラベル付きデータから識別的特徴を学習することを目的としている。
SSLは最近大きな注目を集め、多くの関連するアルゴリズムの開発に繋がった。
本稿では,アルゴリズム的側面,アプリケーション領域,3つの重要なトレンド,オープンな研究課題を含む,多様なSSL手法のレビューを行う。
論文 参考訳(メタデータ) (2023-01-13T14:41:05Z) - DiRaC-I: Identifying Diverse and Rare Training Classes for Zero-Shot
Learning [6.75714270653184]
ゼロショット学習(ZSL)のためのデータセットから、インテリジェントにトレーニングクラスを選択することで、既存のZSLメソッドのパフォーマンスを向上させることは直感的である。
属性ベースのデータセットが与えられた場合、ZSLモデルのトレーニングに最も適した「Seen Class」をインテリジェントに生成できるDiverse and Rare Class Identifier (DiRaC-I) というフレームワークを提案する。
DRaC-IはZSLモデルの分類精度の向上に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-31T16:05:09Z) - Unseen Classes at a Later Time? No Problem [17.254973125515402]
より実用的でフレキシブルなオンラインCGZSL設定を提案する。
これらのCGZSL設定のいずれにおいても時間とともに現れる新しいクラスの追加に動的に適応するために、双方向インクリメンタルアライメントを活用する、CGZSL用の統合機能生成フレームワークを導入する。
論文 参考訳(メタデータ) (2022-03-30T17:52:16Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - Generative Zero-Shot Learning for Semantic Segmentation of 3D Point
Cloud [79.99653758293277]
本稿では,ZSL(Zero-Shot Learning)とGZSL(Generalized ZSL)の両方を3次元データ上に生成する手法を提案する。
インダクティブZSLとインダクティブGZSLの両方に対して,ModelNet40分類における技術状況に到達または向上することを示す。
実験の結果,本手法は強いベースラインよりも優れており,さらに本手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T13:29:27Z) - Online Lifelong Generalized Zero-Shot Learning [7.909034037183046]
ゼロショット学習(ZSL)の文献で提案される手法は、通常オフライン学習に適しており、連続的なストリーミングデータから継続的に学習することはできない。
本稿では,連続学習中にタスク情報を必要としないタスクフリー(タスク非依存)CZSL手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T11:24:05Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - OntoZSL: Ontology-enhanced Zero-shot Learning [19.87808305218359]
Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
論文 参考訳(メタデータ) (2021-02-15T04:39:58Z) - End-to-end Generative Zero-shot Learning via Few-shot Learning [76.9964261884635]
ゼロショット学習(ZSL)の最先端アプローチでは、生成ネットをトレーニングし、提供されたメタデータに条件付きサンプルを合成する。
本稿では,このような手法をバックボーンとして使用し,合成した出力をFew-Shot Learningアルゴリズムに供給するエンドツーエンド生成ZSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:35:37Z) - Generative Replay-based Continual Zero-Shot Learning [7.909034037183046]
再生再生型連続ZSL(GRCZSL)を開発した。
提案手法は従来のZSLにストリーミングデータから学び、以前のタスクの経験を忘れることなく新しい知識を得ることができる。
GRZSL法は,実世界の問題設定をシミュレートした連続学習の単一ヘッド設定のために開発された。
論文 参考訳(メタデータ) (2021-01-22T00:03:34Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。