論文の概要: Meta-Learned Attribute Self-Interaction Network for Continual and
Generalized Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2312.01167v1
- Date: Sat, 2 Dec 2023 16:23:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 18:54:36.634312
- Title: Meta-Learned Attribute Self-Interaction Network for Continual and
Generalized Zero-Shot Learning
- Title(参考訳): 連続・一般化ゼロショット学習のためのメタラーニング属性自己対話ネットワーク
- Authors: Vinay K Verma, Nikhil Mehta, Kevin J Liang, Aakansha Mishra and
Lawrence Carin
- Abstract要約: ゼロショット学習(ZSL)は、トレーニング中のカテゴリーを見えないものに一般化するための有望なアプローチである。
連続的なZSLのためのMAIN(Meta-learned Attribute Self-Interaction Network)を提案する。
メタラーニングと属性エンコーダの逆正則化を用いて学習した属性をペアリングすることで、未知のクラス属性を活用することなく、最先端の成果を達成できる。
- 参考スコア(独自算出の注目度): 46.6282595346048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot learning (ZSL) is a promising approach to generalizing a model to
categories unseen during training by leveraging class attributes, but
challenges remain. Recently, methods using generative models to combat bias
towards classes seen during training have pushed state of the art, but these
generative models can be slow or computationally expensive to train. Also,
these generative models assume that the attribute vector of each unseen class
is available a priori at training, which is not always practical. Additionally,
while many previous ZSL methods assume a one-time adaptation to unseen classes,
in reality, the world is always changing, necessitating a constant adjustment
of deployed models. Models unprepared to handle a sequential stream of data are
likely to experience catastrophic forgetting. We propose a Meta-learned
Attribute self-Interaction Network (MAIN) for continual ZSL. By pairing
attribute self-interaction trained using meta-learning with inverse
regularization of the attribute encoder, we are able to outperform
state-of-the-art results without leveraging the unseen class attributes while
also being able to train our models substantially faster (>100x) than expensive
generative-based approaches. We demonstrate this with experiments on five
standard ZSL datasets (CUB, aPY, AWA1, AWA2, and SUN) in the generalized
zero-shot learning and continual (fixed/dynamic) zero-shot learning settings.
Extensive ablations and analyses demonstrate the efficacy of various components
proposed.
- Abstract(参考訳): ゼロショット学習(ZSL)は、クラス属性を活用することで、トレーニング中に見えないカテゴリにモデルを一般化する、有望なアプローチである。
近年, 生成モデルを用いて授業のバイアスに対処する手法が技術の現状を推し進めているが, これらの生成モデルは訓練に遅く, 計算的に高価である。
また、これらの生成モデルは、各未確認クラスの属性ベクトルが訓練時に事前利用可能であると仮定するが、必ずしも実用的とは限らない。
さらに、以前のZSLメソッドの多くは、未確認のクラスに一度だけ適応することを前提としていますが、実際には、世界は常に変化しており、デプロイされたモデルの定期的な調整が必要です。
シーケンシャルなデータストリームを扱う準備ができていないモデルは、破滅的な忘れを経験する可能性が高い。
連続的なZSLのためのMAIN(Meta-learned Attribute Self-Interaction Network)を提案する。
メタラーニングと属性エンコーダの逆正則化を併用して学習した属性をペアリングすることで、未知のクラス属性を活用せずに、高コストな生成ベースアプローチよりもモデルを大幅に高速(>100倍)にトレーニングすることが可能となる。
我々は、一般化されたゼロショット学習と連続的な(固定/動的)ゼロショット学習設定において、5つの標準ZSLデータセット(CUB、aPY、AWA1、AWA2、SUN)でこれを実証する。
広範なアブレーションと分析により,提案する各種成分の有効性が示された。
関連論文リスト
- CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - Efficient Gaussian Process Model on Class-Imbalanced Datasets for
Generalized Zero-Shot Learning [37.00463358780726]
本稿では,潜在機能埋め込みを学習するニューラルネットワークモデルと,未確認クラスの潜在機能プロトタイプを予測するガウスプロセス(GP)回帰モデルを提案する。
我々のモデルは、クラス不均衡なトレーニングデータの影響を緩和する単純なトレーニング戦略により、効率的に訓練される。
論文 参考訳(メタデータ) (2022-10-11T04:57:20Z) - Adaptive Memory Networks with Self-supervised Learning for Unsupervised
Anomaly Detection [54.76993389109327]
教師なし異常検出は、通常のデータのみをトレーニングすることで、目に見えない異常を検出するモデルを構築することを目的としている。
本稿では,これらの課題に対処するために,自己教師付き学習(AMSL)を用いた適応記憶ネットワーク(Adaptive Memory Network)を提案する。
AMSLには、一般的な正規パターンを学ぶための自己教師付き学習モジュールと、リッチな特徴表現を学ぶための適応型メモリ融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2022-01-03T03:40:21Z) - Dynamic VAEs with Generative Replay for Continual Zero-shot Learning [1.90365714903665]
本稿では,タスクごとにサイズが拡大する新しいゼロショット学習(DVGR-CZSL)モデルを提案する。
ZSL(Zero-Shot Learning)を用いた逐次学習において,本手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T10:56:43Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Towards Zero-Shot Learning with Fewer Seen Class Examples [41.751885300474925]
ゼロショット学習(ZSL)のためのメタ学習に基づく生成モデルを提案する。
この設定は従来のZSLアプローチとは対照的であり、トレーニングは通常、各クラスから十分な数のトレーニングサンプルが利用可能であると仮定する。
筆者らは,ZSLの4つのベンチマークデータセットに関する広範囲な実験およびアブレーション研究を行い,提案モデルが実例数が非常に小さい場合に,最先端のアプローチよりも優れた性能を示すことを示した。
論文 参考訳(メタデータ) (2020-11-14T11:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。