論文の概要: Zero-shot Learning with Class Description Regularization
- arxiv url: http://arxiv.org/abs/2106.16108v1
- Date: Wed, 30 Jun 2021 14:56:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 17:41:06.961810
- Title: Zero-shot Learning with Class Description Regularization
- Title(参考訳): クラス記述規則化によるゼロショット学習
- Authors: Shayan Kousha, Marcus A. Brubaker
- Abstract要約: 生成型ZSLモデルに対して,各カテゴリの記述により多くの注意を払うことを促す,新たな正規化形式を導入する。
実験結果から, 一般化ゼロショット認識・分類の課題において, 複数の最先端モデルの性能向上を実証した。
- 参考スコア(独自算出の注目度): 10.739164530098755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The purpose of generative Zero-shot learning (ZSL) is to learning from seen
classes, transfer the learned knowledge, and create samples of unseen classes
from the description of these unseen categories. To achieve better ZSL
accuracies, models need to better understand the descriptions of unseen
classes. We introduce a novel form of regularization that encourages generative
ZSL models to pay more attention to the description of each category. Our
empirical results demonstrate improvements over the performance of multiple
state-of-the-art models on the task of generalized zero-shot recognition and
classification when trained on textual description-based datasets like CUB and
NABirds and attribute-based datasets like AWA2, aPY and SUN.
- Abstract(参考訳): ゼロショット学習(ZSL)の目的は、目に見えないクラスから学習し、学習した知識を伝達し、これらの見えないカテゴリの記述から目に見えないクラスのサンプルを作成することである。
ZSLの精度を改善するために、モデルは目に見えないクラスの記述をよりよく理解する必要がある。
生成型zslモデルが各カテゴリの記述にもっと注意を払うように促す新しい正規化方式を導入する。
CUBやNABirdsのようなテキスト記述ベースのデータセットやAWA2、aPY、SUNといった属性ベースのデータセットでトレーニングした場合には、一般化されたゼロショット認識と分類のタスクにおいて、複数の最先端モデルの性能よりも向上することを示す。
関連論文リスト
- Image-free Classifier Injection for Zero-Shot Classification [72.66409483088995]
ゼロショット学習モデルは、訓練中に見られなかったクラスからのサンプルのイメージ分類において顕著な結果が得られる。
我々は,画像データを用いることなく,ゼロショット分類機能を備えた事前学習モデルの装備を目指す。
提案したイメージフリーインジェクション・ウィズ・セマンティックス (ICIS) でこれを実現する。
論文 参考訳(メタデータ) (2023-08-21T09:56:48Z) - Prompting Language-Informed Distribution for Compositional Zero-Shot Learning [73.49852821602057]
合成ゼロショット学習(CZSL)タスクは、目に見えない合成視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - DiRaC-I: Identifying Diverse and Rare Training Classes for Zero-Shot
Learning [6.75714270653184]
ゼロショット学習(ZSL)のためのデータセットから、インテリジェントにトレーニングクラスを選択することで、既存のZSLメソッドのパフォーマンスを向上させることは直感的である。
属性ベースのデータセットが与えられた場合、ZSLモデルのトレーニングに最も適した「Seen Class」をインテリジェントに生成できるDiverse and Rare Class Identifier (DiRaC-I) というフレームワークを提案する。
DRaC-IはZSLモデルの分類精度の向上に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-31T16:05:09Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Dynamic VAEs with Generative Replay for Continual Zero-shot Learning [1.90365714903665]
本稿では,タスクごとにサイズが拡大する新しいゼロショット学習(DVGR-CZSL)モデルを提案する。
ZSL(Zero-Shot Learning)を用いた逐次学習において,本手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T10:56:43Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - OntoZSL: Ontology-enhanced Zero-shot Learning [19.87808305218359]
Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
論文 参考訳(メタデータ) (2021-02-15T04:39:58Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。