論文の概要: Task-Independent Knowledge Makes for Transferable Representations for
Generalized Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2104.01832v1
- Date: Mon, 5 Apr 2021 10:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 21:36:25.058107
- Title: Task-Independent Knowledge Makes for Transferable Representations for
Generalized Zero-Shot Learning
- Title(参考訳): 汎用ゼロショット学習のための伝達可能な表現のためのタスク非依存知識
- Authors: Chaoqun Wang, Xuejin Chen, Shaobo Min, Xiaoyan Sun, Houqiang Li
- Abstract要約: 一般化されたゼロショット学習(GZSL)は、転送可能な画像表現を学習することによって新しいカテゴリを認識する。
タスク固有とタスク非依存の知識を同時に学習する新しいデュアルコントラスト埋め込みネットワーク(DCEN)を提案する。
- 参考スコア(独自算出の注目度): 77.0715029826957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized Zero-Shot Learning (GZSL) targets recognizing new categories by
learning transferable image representations. Existing methods find that, by
aligning image representations with corresponding semantic labels, the
semantic-aligned representations can be transferred to unseen categories.
However, supervised by only seen category labels, the learned semantic
knowledge is highly task-specific, which makes image representations biased
towards seen categories. In this paper, we propose a novel Dual-Contrastive
Embedding Network (DCEN) that simultaneously learns task-specific and
task-independent knowledge via semantic alignment and instance discrimination.
First, DCEN leverages task labels to cluster representations of the same
semantic category by cross-modal contrastive learning and exploring
semantic-visual complementarity. Besides task-specific knowledge, DCEN then
introduces task-independent knowledge by attracting representations of
different views of the same image and repelling representations of different
images. Compared to high-level seen category supervision, this instance
discrimination supervision encourages DCEN to capture low-level visual
knowledge, which is less biased toward seen categories and alleviates the
representation bias. Consequently, the task-specific and task-independent
knowledge jointly make for transferable representations of DCEN, which obtains
averaged 4.1% improvement on four public benchmarks.
- Abstract(参考訳): 一般化ゼロショット学習(GZSL)は、転送可能な画像表現を学習することで、新しいカテゴリを認識することを目的としている。
既存の手法では、画像表現を対応するセマンティックラベルにアライメントすることで、セマンティックな表現を目に見えないカテゴリに移すことができる。
しかし、目に見えるカテゴリラベルのみによって監督され、学習された意味知識は、非常にタスク固有であり、画像表現を目に見えるカテゴリに偏らせる。
本稿では,タスク固有の知識とタスク非依存の知識を,セマンティックアライメントとインスタンス識別を通じて同時に学習する新しいDual-Contrastive Embedding Network(DCEN)を提案する。
第一に、DCENはタスクラベルを、クロスモーダルコントラスト学習と意味-視覚的相補性の探索により、同じ意味圏のクラスタ表現に活用する。
タスク固有の知識に加えて、DCENはタスクに依存しない知識を導入し、同じイメージの異なるビューの表現を引き付け、異なるイメージの表現を撃退する。
高レベルのカテゴリー監督と比較して、このインスタンス識別監督はDCENが低レベルの視覚的知識を捉えることを奨励する。
その結果、タスク固有の知識とタスクに依存しない知識が共同でDCENの転送可能な表現を可能にし、4つの公開ベンチマークで平均4.1%の改善が得られた。
関連論文リスト
- Seeing the Intangible: Survey of Image Classification into High-Level
and Abstract Categories [0.20718016474717196]
コンピュータビジョン(CV)の分野は、高レベルの視覚感覚タスクへとシフトしつつある。
本稿では,画像の自動分類における抽象概念(AC)に着目し,高レベルの視覚的理解に関する研究を体系的にレビューする。
論文 参考訳(メタデータ) (2023-08-21T08:37:04Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Novel Visual Category Discovery with Dual Ranking Statistics and Mutual
Knowledge Distillation [16.357091285395285]
我々は、新しいクラスから異なるセマンティックパーティションに非ラベリングなイメージをグループ化する問題に取り組む。
これは従来の半教師付き学習よりも現実的で難しい設定です。
本稿では,局所的な部分レベル情報に焦点をあてた2分岐学習フレームワークと,全体特性に焦点をあてた2分岐学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-07T17:14:40Z) - Semantic Diversity Learning for Zero-Shot Multi-label Classification [14.480713752871523]
本研究では,マルチラベルゼロショット学習のためのエンドツーエンドモデルトレーニングを提案する。
本研究では,主埋め込みベクトルを持つ埋め込み行列を用いて,調整された損失関数を用いて訓練する。
さらに, 学習中, 組込み行列の多様性を促進するために, 高い意味的多様性を示す損失関数画像サンプルの重み付けを提案する。
論文 参考訳(メタデータ) (2021-05-12T19:39:07Z) - Revisiting Contrastive Learning for Few-Shot Classification [74.78397993160583]
インスタンス識別に基づくコントラスト学習は,視覚表現の自己教師あり学習の指導的アプローチとして現れてきた。
本稿では,インスタンス識別に基づくコントラスト型自己教師付き学習フレームワークにおいて,新しいタスクを一般化する表現を学習する方法を示す。
提案手法は,cidを用いて訓練された普遍的埋め込みと組み合わせて,挑戦的メタデータセットベンチマークにおいて最先端アルゴリズムよりも優れる新しいモデル選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-26T19:58:08Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z) - Zero-Shot Recognition through Image-Guided Semantic Classification [9.291055558504588]
ゼロショット学習(ZSL)のための新しい埋め込み型フレームワークを提案する。
複数ラベル分類のための2値関係法により,画像と意味分類器のマッピングを逆学習する手法を提案する。
IGSCは概念的には単純であり、分類のための既存のディープアーキテクチャをわずかに拡張することで実現可能である。
論文 参考訳(メタデータ) (2020-07-23T06:22:40Z) - Learning unbiased zero-shot semantic segmentation networks via
transductive transfer [14.55508599873219]
ゼロショットセマンティックセグメンテーションにおける予測バイアスを軽減するために, 簡単に実装可能なトランスダクティブ手法を提案する。
本手法は,全画素レベルのラベルを持つソースイメージと,未ラベルのターゲットイメージの両方をトレーニング中に利用できると仮定する。
論文 参考訳(メタデータ) (2020-07-01T14:25:13Z) - Attribute-Induced Bias Eliminating for Transductive Zero-Shot Learning [144.94728981314717]
本稿では,トランスダクティブZSLのためのAttribute-induced Bias Elimination (AIBE)モジュールを提案する。
2つのドメイン間の視覚的バイアスに対して、Mean-Teacherモジュールは2つのドメイン間の視覚的表現の相違をブリッジするために最初に利用される。
注目グラフ属性の埋め込みは、目に見えないカテゴリと見えないカテゴリ間の意味バイアスを減らすために提案される。
最後に、目に見えない領域のセマンティック・視覚的バイアスに対して、目に見えないセマンティックアライメント制約は、教師なしの方法で視覚空間とセマンティック空間を整列するように設計されている。
論文 参考訳(メタデータ) (2020-05-31T02:08:01Z) - Hierarchical Image Classification using Entailment Cone Embeddings [68.82490011036263]
まずラベル階層の知識を任意のCNNベースの分類器に注入する。
画像からの視覚的セマンティクスと組み合わせた外部セマンティクス情報の利用が全体的な性能を高めることを実証的に示す。
論文 参考訳(メタデータ) (2020-04-02T10:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。