論文の概要: Evolutionary Generalized Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2211.13174v1
- Date: Wed, 23 Nov 2022 17:51:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 13:39:08.391127
- Title: Evolutionary Generalized Zero-Shot Learning
- Title(参考訳): 進化的一般化ゼロショット学習
- Authors: Dubing Chen, Haofeng Zhang, Yuming Shen, Yang Long, Ling Shao
- Abstract要約: 帰納的GZSLにおける領域シフト問題を回避した進化的一般化ゼロショット学習環境を提案する。
この特別課題の3つの課題、すなわち破滅的な忘れ、最初の予測バイアス、進化的データクラスバイアスについて詳述する。
3つの人気のあるGZSLベンチマークデータセットの実験は、我々のモデルはテストデータストリームから学習でき、他のベースラインは失敗することを示している。
- 参考スコア(独自算出の注目度): 86.06364624021414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An open problem on the path to artificial intelligence is generalization from
the known to the unknown, which is instantiated as Generalized Zero-Shot
Learning (GZSL) task. In this work, we propose a novel Evolutionary Generalized
Zero-Shot Learning setting, which (i) avoids the domain shift problem in
inductive GZSL, and (ii) is more in line with the needs of real-world
deployments than transductive GZSL. In the proposed setting, a zero-shot model
with poor initial performance is able to achieve online evolution during
application. We elaborate on three challenges of this special task, i.e.,
catastrophic forgetting, initial prediction bias, and evolutionary data class
bias. Moreover, we propose targeted solutions for each challenge, resulting in
a generic method capable of continuing to evolve on a given initial IGZSL
model. Experiments on three popular GZSL benchmark datasets show that our model
can learn from the test data stream while other baselines fail.
- Abstract(参考訳): 人工知能への道の開けた問題は、既知のものから未知のものへの一般化であり、一般化ゼロショット学習(GZSL)タスクとしてインスタンス化される。
本研究では,新しい進化的一般化ゼロショット学習環境を提案する。
(i)帰納的GZSLにおける領域シフト問題を避け、
(ii) トランスダクティブGZSLよりも,現実的なデプロイメントの必要性に適合している。
提案手法では,初期性能に乏しいゼロショットモデルを用いて,アプリケーション間におけるオンライン進化を実現する。
この特別課題の3つの課題、すなわち破滅的な忘れ、最初の予測バイアス、進化的データクラスバイアスについて詳述する。
さらに,各課題に対する目標解を提案し,その初期IGZSLモデル上での進化を継続できる汎用的手法を提案する。
3つの人気のあるGZSLベンチマークデータセットの実験は、我々のモデルはテストデータストリームから学習でき、他のベースラインは失敗することを示している。
関連論文リスト
- Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Unseen Classes at a Later Time? No Problem [17.254973125515402]
より実用的でフレキシブルなオンラインCGZSL設定を提案する。
これらのCGZSL設定のいずれにおいても時間とともに現れる新しいクラスの追加に動的に適応するために、双方向インクリメンタルアライメントを活用する、CGZSL用の統合機能生成フレームワークを導入する。
論文 参考訳(メタデータ) (2022-03-30T17:52:16Z) - Distance-based Hyperspherical Classification for Multi-source Open-Set
Domain Adaptation [34.97934677830779]
クローズドワールドのシナリオで訓練されたビジョンシステムは、新しい環境条件が提示されると必然的に失敗する。
オープンワールド学習への道のりは、長年にわたる研究課題である。
本研究ではHyMOSを導入することで,マルチソースなOpen-Setドメイン適応を実現する。
論文 参考訳(メタデータ) (2021-07-05T14:56:57Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - Generative Replay-based Continual Zero-Shot Learning [7.909034037183046]
再生再生型連続ZSL(GRCZSL)を開発した。
提案手法は従来のZSLにストリーミングデータから学び、以前のタスクの経験を忘れることなく新しい知識を得ることができる。
GRZSL法は,実世界の問題設定をシミュレートした連続学習の単一ヘッド設定のために開発された。
論文 参考訳(メタデータ) (2021-01-22T00:03:34Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。