論文の概要: Targeted Attention for Generalized- and Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2211.09322v1
- Date: Thu, 17 Nov 2022 03:55:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 16:21:50.871784
- Title: Targeted Attention for Generalized- and Zero-Shot Learning
- Title(参考訳): 汎用・ゼロショット学習のための目標注意
- Authors: Abhijit Suprem
- Abstract要約: Zero-Shot Learning (ZSL)タスクは、ラベル付きデータなしで概念を学習しようとする。
一般ゼロショット学習(GZSL)では,CUB200データセット上でのハーモニック平均R-1が66.14%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Zero-Shot Learning (ZSL) task attempts to learn concepts without any
labeled data. Unlike traditional classification/detection tasks, the evaluation
environment is provided unseen classes never encountered during training. As
such, it remains both challenging, and promising on a variety of fronts,
including unsupervised concept learning, domain adaptation, and dataset drift
detection. Recently, there have been a variety of approaches towards solving
ZSL, including improved metric learning methods, transfer learning,
combinations of semantic and image domains using, e.g. word vectors, and
generative models to model the latent space of known classes to classify unseen
classes. We find many approaches require intensive training augmentation with
attributes or features that may be commonly unavailable (attribute-based
learning) or susceptible to adversarial attacks (generative learning). We
propose combining approaches from the related person re-identification task for
ZSL, with key modifications to ensure sufficiently improved performance in the
ZSL setting without the need for feature or training dataset augmentation. We
are able to achieve state-of-the-art performance on the CUB200 and Cars196
datasets in the ZSL setting compared to recent works, with NMI (normalized
mutual inference) of 63.27 and top-1 of 61.04 for CUB200, and NMI 66.03 with
top-1 82.75% in Cars196. We also show state-of-the-art results in the
Generalized Zero-Shot Learning (GZSL) setting, with Harmonic Mean R-1 of 66.14%
on the CUB200 dataset.
- Abstract(参考訳): Zero-Shot Learning (ZSL)タスクはラベル付きデータなしで概念を学習しようとする。
従来の分類・検出タスクとは異なり、評価環境はトレーニング中に遭遇したことのないクラスを提供する。
そのため、教師なしの概念学習、ドメイン適応、データセットドリフト検出など、さまざまな面での挑戦と期待の両方が続けられている。
近年、ZSL の解法には、計量学習法の改善、伝達学習、単語ベクトルを用いた意味領域と画像領域の組み合わせ、未知のクラスを分類するための既知のクラスの潜在空間をモデル化するための生成モデルなど、様々なアプローチがある。
多くのアプローチでは、一般的には利用できない属性や特徴(属性ベース学習)や、敵対的攻撃(生成学習)の影響を受けやすいような、集中的なトレーニング強化が必要である。
本稿では,ZSL の関連人物再識別タスクからのアプローチと,ZSL 設定における性能を,特徴量やトレーニングデータセットの強化を必要とせずに十分に向上させるキー修正を組み合わせることを提案する。
CUB200では63.27、CUB200では61.04のNMI 66.03、Cars196では82.75%のNMI 66.03を用いて、ZSL設定のCUB200とCars196の最先端性能を実現している。
また,CUB200データセット上での高調波平均R-1の66.14%の一般ゼロショット学習(GZSL)設定において,最先端の結果を示す。
関連論文リスト
- Meta-Learned Attribute Self-Interaction Network for Continual and
Generalized Zero-Shot Learning [46.6282595346048]
ゼロショット学習(ZSL)は、トレーニング中のカテゴリーを見えないものに一般化するための有望なアプローチである。
連続的なZSLのためのMAIN(Meta-learned Attribute Self-Interaction Network)を提案する。
メタラーニングと属性エンコーダの逆正則化を用いて学習した属性をペアリングすることで、未知のクラス属性を活用することなく、最先端の成果を達成できる。
論文 参考訳(メタデータ) (2023-12-02T16:23:01Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - DiRaC-I: Identifying Diverse and Rare Training Classes for Zero-Shot
Learning [6.75714270653184]
ゼロショット学習(ZSL)のためのデータセットから、インテリジェントにトレーニングクラスを選択することで、既存のZSLメソッドのパフォーマンスを向上させることは直感的である。
属性ベースのデータセットが与えられた場合、ZSLモデルのトレーニングに最も適した「Seen Class」をインテリジェントに生成できるDiverse and Rare Class Identifier (DiRaC-I) というフレームワークを提案する。
DRaC-IはZSLモデルの分類精度の向上に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-31T16:05:09Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - Task Aligned Generative Meta-learning for Zero-shot Learning [64.16125851588437]
ゼロショット学習のためのタスク整合型ジェネラティブメタラーニングモデル(TGMZ)の提案
TGMZはバイアスのあるトレーニングを緩和し、メタZSLが多様な分布を含む現実世界のデータセットに対応できるようにする。
最先端アルゴリズムとの比較により,awa1,awa2,cub,apyデータセット上でtgmzが達成した2.1%,3.0%,2.5%,7.6%の改善が示された。
論文 参考訳(メタデータ) (2021-03-03T05:18:36Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - OntoZSL: Ontology-enhanced Zero-shot Learning [19.87808305218359]
Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
論文 参考訳(メタデータ) (2021-02-15T04:39:58Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。