論文の概要: Bookworm continual learning: beyond zero-shot learning and continual
learning
- arxiv url: http://arxiv.org/abs/2006.15176v3
- Date: Thu, 20 Aug 2020 13:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:57:26.633440
- Title: Bookworm continual learning: beyond zero-shot learning and continual
learning
- Title(参考訳): ブックワーム連続学習--ゼロショット学習と連続学習を超えて
- Authors: Kai Wang, Luis Herranz, Anjan Dutta, Joost van de Weijer
- Abstract要約: 本稿では,セマンティックモデルを用いて未確認のクラスを推論し,ビジュアルモデルを継続的に更新するフレキシブルな設定を提案する。
また、過去と将来の両方のクラスの特徴が生成されるBCLに対処するための双方向イマジネーション(BImag)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 52.95405249201296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose bookworm continual learning(BCL), a flexible setting where unseen
classes can be inferred via a semantic model, and the visual model can be
updated continually. Thus BCL generalizes both continual learning (CL) and
zero-shot learning (ZSL). We also propose the bidirectional imagination (BImag)
framework to address BCL where features of both past and future classes are
generated. We observe that conditioning the feature generator on attributes can
actually harm the continual learning ability, and propose two variants (joint
class-attribute conditioning and asymmetric generation) to alleviate this
problem.
- Abstract(参考訳): そこで本研究では,unseenクラスを意味モデルによって推論し,視覚的モデルを継続的に更新できるフレキシブルな設定であるbookworm continual learning(bcl)を提案する。
したがって、BCLは連続学習(CL)とゼロショット学習(ZSL)の両方を一般化する。
また、過去と将来の両方のクラスの特徴が生成されるBCLに対処するための双方向イマジネーション(BImag)フレームワークを提案する。
本研究では,属性に対する特徴生成器の条件付けが継続学習能力を実際に損なうことを観察し,この問題を緩和するための2つの変種(共役クラス属性条件付けと非対称生成)を提案する。
関連論文リスト
- Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - Meta-Learned Attribute Self-Interaction Network for Continual and
Generalized Zero-Shot Learning [46.6282595346048]
ゼロショット学習(ZSL)は、トレーニング中のカテゴリーを見えないものに一般化するための有望なアプローチである。
連続的なZSLのためのMAIN(Meta-learned Attribute Self-Interaction Network)を提案する。
メタラーニングと属性エンコーダの逆正則化を用いて学習した属性をペアリングすることで、未知のクラス属性を活用することなく、最先端の成果を達成できる。
論文 参考訳(メタデータ) (2023-12-02T16:23:01Z) - Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - Beyond Supervised Continual Learning: a Review [69.9674326582747]
連続学習(Continuous Learning, CL)は、定常データ分布の通常の仮定を緩和または省略する機械学習のフレーバーである。
データ分布の変化は、いわゆる破滅的な忘れ(CF)効果、すなわち、過去の知識の突然の喪失を引き起こす可能性がある。
本稿では、CLを他の環境で研究する文献をレビューする。例えば、監督を減らした学習、完全に教師なしの学習、強化学習などである。
論文 参考訳(メタデータ) (2022-08-30T14:44:41Z) - Using Fictitious Class Representations to Boost Discriminative Zero-Shot
Learners [23.854093182195246]
そこで本研究では,学習中に動的に拡張する機構を導入し,新たな虚構クラスを創出する。
これらの架空のクラスは、トレーニングセットに現れるが、新たに公開されたクラスには現れない属性相関に基づいて、トレーニング中にモデルを固定する傾向を減少させる。
論文 参考訳(メタデータ) (2021-11-26T15:41:16Z) - Dynamic VAEs with Generative Replay for Continual Zero-shot Learning [1.90365714903665]
本稿では,タスクごとにサイズが拡大する新しいゼロショット学習(DVGR-CZSL)モデルを提案する。
ZSL(Zero-Shot Learning)を用いた逐次学習において,本手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T10:56:43Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。