論文の概要: Using Fictitious Class Representations to Boost Discriminative Zero-Shot
Learners
- arxiv url: http://arxiv.org/abs/2111.13550v1
- Date: Fri, 26 Nov 2021 15:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 20:03:59.785740
- Title: Using Fictitious Class Representations to Boost Discriminative Zero-Shot
Learners
- Title(参考訳): 架空のクラス表現を用いた差別的ゼロショット学習者の育成
- Authors: Mohammed Dabbah, Ran El-yaniv
- Abstract要約: そこで本研究では,学習中に動的に拡張する機構を導入し,新たな虚構クラスを創出する。
これらの架空のクラスは、トレーニングセットに現れるが、新たに公開されたクラスには現れない属性相関に基づいて、トレーニング中にモデルを固定する傾向を減少させる。
- 参考スコア(独自算出の注目度): 23.854093182195246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Focusing on discriminative zero-shot learning, in this work we introduce a
novel mechanism that dynamically augments during training the set of seen
classes to produce additional fictitious classes. These fictitious classes
diminish the model's tendency to fixate during training on attribute
correlations that appear in the training set but will not appear in newly
exposed classes. The proposed model is tested within the two formulations of
the zero-shot learning framework; namely, generalized zero-shot learning (GZSL)
and classical zero-shot learning (CZSL). Our model improves the
state-of-the-art performance on the CUB dataset and reaches comparable results
on the other common datasets, AWA2 and SUN. We investigate the strengths and
weaknesses of our method, including the effects of catastrophic forgetting when
training an end-to-end zero-shot model.
- Abstract(参考訳): 本研究では,識別ゼロショット学習に着目し,視覚クラスを学習中に動的に拡張し,付加的な虚構クラスを生成する機構を導入する。
これらの架空のクラスは、トレーニングセットに現れるが、新しく公開されたクラスには現れない属性相関のトレーニング中に定着するモデルの傾向を減少させる。
提案モデルは、ゼロショット学習フレームワークの2つの定式化、すなわち一般化ゼロショット学習(GZSL)と古典ゼロショット学習(CZSL)で検証される。
我々のモデルはCUBデータセットの最先端性能を改善し、他の一般的なデータセットであるAWA2とSUNに匹敵する結果を得る。
本手法の長所と短所について検討し, エンド・ツー・エンドゼロショットモデルのトレーニングにおいて, 破滅的忘れ込みの影響について検討した。
関連論文リスト
- Z-ICL: Zero-Shot In-Context Learning with Pseudo-Demonstrations [97.41375480696972]
そこで,Z-ICLを提案する。Z-ICL,Z-ICLは,与えられたテスト入力に対して擬似デモを構築することでギャップを埋める新しいゼロショット方式である。
9つの分類データセットの評価は、Z-ICLが従来のゼロショット法よりも有意差で優れていたことを示している。
論文 参考訳(メタデータ) (2022-12-19T21:34:26Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Dynamic VAEs with Generative Replay for Continual Zero-shot Learning [1.90365714903665]
本稿では,タスクごとにサイズが拡大する新しいゼロショット学習(DVGR-CZSL)モデルを提案する。
ZSL(Zero-Shot Learning)を用いた逐次学習において,本手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T10:56:43Z) - Unsupervised Class-Incremental Learning Through Confusion [0.4604003661048266]
入ってくるデータを新しいクラスとして訓練することによるネットワークの混乱を生かした新規性検出手法を提案する。
この検出方法中にクラスアンバランスを組み込むことで、パフォーマンスが大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-04-09T15:58:43Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。