論文の概要: Cluster-based Contrastive Disentangling for Generalized Zero-Shot
Learning
- arxiv url: http://arxiv.org/abs/2203.02648v1
- Date: Sat, 5 Mar 2022 02:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 08:04:35.413040
- Title: Cluster-based Contrastive Disentangling for Generalized Zero-Shot
Learning
- Title(参考訳): 一般化ゼロショット学習のためのクラスタベースコントラストディスタング
- Authors: Yi Gao and Chenwei Tang and Jiancheng Lv
- Abstract要約: Generalized Zero-Shot Learning (GZSL) は、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
本稿では,クラスタベースのContrastive Disentangling(CCD)手法を提案する。
- 参考スコア(独自算出の注目度): 25.92340532509084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized Zero-Shot Learning (GZSL) aims to recognize both seen and unseen
classes by training only the seen classes, in which the instances of unseen
classes tend to be biased towards the seen class. In this paper, we propose a
Cluster-based Contrastive Disentangling (CCD) method to improve GZSL by
alleviating the semantic gap and domain shift problems. Specifically, we first
cluster the batch data to form several sets containing similar classes. Then,
we disentangle the visual features into semantic-unspecific and
semantic-matched variables, and further disentangle the semantic-matched
variables into class-shared and class-unique variables according to the
clustering results. The disentangled learning module with random swapping and
semantic-visual alignment bridges the semantic gap. Moreover, we introduce
contrastive learning on semantic-matched and class-unique variables to learn
high intra-set and intra-class similarity, as well as inter-set and inter-class
discriminability. Then, the generated visual features conform to the underlying
characteristics of general images and have strong discriminative information,
which alleviates the domain shift problem well. We evaluate our proposed method
on four datasets and achieve state-of-the-art results in both conventional and
generalized settings.
- Abstract(参考訳): Generalized Zero-Shot Learning (GZSL) は、見えないクラスのみをトレーニングすることで、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
本稿では,意味的ギャップとドメインシフト問題を緩和し,gzslを改善するためのクラスタ型コントラスト・ディスタング(ccd)手法を提案する。
具体的には、まずバッチデータをクラスタ化して、同様のクラスを含む複数のセットを形成します。
次に、視覚的特徴をセマンティック非特異変数とセマンティック整合変数に分解し、さらにクラスタリング結果に応じてセマンティック整合変数をクラス共有変数とクラス固有変数に分解する。
ランダムスワップとセマンティクス・ビジュアルアライメントを備えた不連続学習モジュールは、セマンティクスギャップを橋渡しする。
さらに,セマンティクスマッチング変数とクラス統一変数の対比学習を導入し,クラス内およびクラス内類似性,およびクラス間判別性について学習する。
そして、生成された視覚特徴は、一般画像の基盤特性に準拠し、強力な識別情報を有し、ドメインシフト問題をよく緩和する。
提案手法を4つのデータセットで評価し,従来型と一般化型の両方で最新の結果を得る。
関連論文リスト
- Language-Driven Visual Consensus for Zero-Shot Semantic Segmentation [114.72734384299476]
本稿では,言語駆動型ビジュアルコンセンサス(LDVC)アプローチを提案する。
クラス埋め込みを、その離散的で抽象的な性質からアンカーとして活用し、クラス埋め込みに向けて視覚的特徴を操る。
我々の手法は、目に見えないクラスに対するセグメンテーションモデルの能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-13T11:23:55Z) - VGSE: Visually-Grounded Semantic Embeddings for Zero-Shot Learning [113.50220968583353]
ゼロショット学習のための識別的視覚特性を含むセマンティック埋め込みを発見することを提案する。
本モデルでは,画像の集合を視覚的類似性に応じて局所的な画像領域の集合に視覚的に分割する。
視覚的に接地されたセマンティック埋め込みは、様々なZSLモデルにまたがる単語埋め込みよりも、大きなマージンで性能を向上することを示した。
論文 参考訳(メタデータ) (2022-03-20T03:49:02Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - A Simple Approach for Zero-Shot Learning based on Triplet Distribution
Embeddings [6.193231258199234]
ZSLは、セマンティック情報を利用して、ラベル付きトレーニングデータを使わずに、目に見えないクラスを認識することを目指している。
既存のZSL法は主にベクトルを用いて意味空間への埋め込みを表現する。
分散埋め込みの利用を利用してこの問題に対処する。
論文 参考訳(メタデータ) (2021-03-29T20:26:20Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - OntoZSL: Ontology-enhanced Zero-shot Learning [19.87808305218359]
Zero-shot Learning(ZSL)の実装の鍵は、クラス間の意味的な関係を構築するクラスの以前の知識を活用することです。
本稿では,zslのクラス間関係をモデル化するために,より豊かで競争力の高い事前知識を探索する。
目に見えないクラス間のデータ不均衡に対処するため,GAN(Generative Adversarial Networks)を用いた生成型ZSLフレームワークを開発した。
論文 参考訳(メタデータ) (2021-02-15T04:39:58Z) - Cross Knowledge-based Generative Zero-Shot Learning Approach with
Taxonomy Regularization [5.280368849852332]
我々は、Cross Knowledge Learning(CKL)スキームとTaxonomy Regularization(TR)を採用したネットワークベースのZSLアプローチを開発する。
CKLは、ZSLにセマンティックとビジュアルの機能を埋め込むための、より関連性の高いセマンティック機能をトレーニングできる。
TRは、生成ネットワークから生成されるより一般化された視覚特徴を持つ見えない画像との交差を著しく改善する。
論文 参考訳(メタデータ) (2021-01-25T04:38:18Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。