論文の概要: Data Distribution Distilled Generative Model for Generalized Zero-Shot
Recognition
- arxiv url: http://arxiv.org/abs/2402.11424v1
- Date: Sun, 18 Feb 2024 01:54:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 21:24:20.933606
- Title: Data Distribution Distilled Generative Model for Generalized Zero-Shot
Recognition
- Title(参考訳): 一般化ゼロショット認識のためのデータ分布蒸留生成モデル
- Authors: Yijie Wang and Mingjian Hong and Luwen Huangfu and Sheng Huang
- Abstract要約: 本稿では,D$3$GZSLというエンドツーエンド生成GZSLフレームワークを紹介する。
このフレームワークは、目に見えないデータと合成されたデータを、それぞれ非分配データとアウト・オブ・ディストリビューションデータとみなしている。
提案手法は,確立されたGZSLベンチマーク間で有効性を実証し,主要な生成フレームワークにシームレスに統合する。
- 参考スコア(独自算出の注目度): 10.804744943342286
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the realm of Zero-Shot Learning (ZSL), we address biases in Generalized
Zero-Shot Learning (GZSL) models, which favor seen data. To counter this, we
introduce an end-to-end generative GZSL framework called D$^3$GZSL. This
framework respects seen and synthesized unseen data as in-distribution and
out-of-distribution data, respectively, for a more balanced model. D$^3$GZSL
comprises two core modules: in-distribution dual space distillation (ID$^2$SD)
and out-of-distribution batch distillation (O$^2$DBD). ID$^2$SD aligns
teacher-student outcomes in embedding and label spaces, enhancing learning
coherence. O$^2$DBD introduces low-dimensional out-of-distribution
representations per batch sample, capturing shared structures between seen and
unseen categories. Our approach demonstrates its effectiveness across
established GZSL benchmarks, seamlessly integrating into mainstream generative
frameworks. Extensive experiments consistently showcase that D$^3$GZSL elevates
the performance of existing generative GZSL methods, underscoring its potential
to refine zero-shot learning practices.The code is available at:
https://github.com/PJBQ/D3GZSL.git
- Abstract(参考訳): ゼロショット学習(zsl)の領域では,参照データを好む一般化ゼロショット学習(gzsl)モデルのバイアスに対処する。
これに対応するために、D$3$GZSLと呼ばれるエンドツーエンド生成GZSLフレームワークを導入する。
このフレームワークは、よりバランスの取れたモデルに対して、目に見えないデータと合成されたデータを、それぞれ分布外データとみなす。
d$^3$gzslは2つのコアモジュールから成り、in-distribution dual space distillation (id$^2$sd)とout-of-distribution batch distillation (o$^2$dbd)である。
ID$2$SDは、埋め込みやラベル空間における教師の学習結果と整合し、学習コヒーレンスを高める。
o$^2$dbdは、バッチサンプル毎に低次元の分散表現を導入し、目に見えるカテゴリと目に見えないカテゴリ間の共有構造をキャプチャする。
提案手法は,確立されたGZSLベンチマーク間で有効性を示し,主要な生成フレームワークにシームレスに統合する。
D$3$GZSLは既存の生成GZSLメソッドの性能を高め、ゼロショット学習プラクティスを洗練させる可能性を示している。
関連論文リスト
- Exploring Data Efficiency in Zero-Shot Learning with Diffusion Models [38.36200871549062]
Zero-Shot Learning (ZSL) は、クラスレベルでのデータ効率を向上させることで、分類器が見えないクラスを識別できるようにすることを目的としている。
これは、未確認クラスの事前に定義されたセマンティクスから画像特徴を生成することで実現される。
本稿では,限られた例が一般的に生成モデルの性能低下をもたらすことを示す。
この統合されたフレームワークは拡散モデルを導入し、クラスレベルとインスタンスレベルのデータ効率を改善する。
論文 参考訳(メタデータ) (2024-06-05T04:37:06Z) - Bi-directional Distribution Alignment for Transductive Zero-Shot
Learning [48.80413182126543]
そこで我々は,Bi-VAEGANと呼ばれる新しいゼロショット学習モデル(TZSL)を提案する。
視覚空間と補助空間の間の配向の強化によるシフトを大幅に改善する。
ベンチマーク評価では、Bi-VAEGANは、標準および一般化されたTZSL設定の両方の下で、新しい芸術の状態を達成している。
論文 参考訳(メタデータ) (2023-03-15T15:32:59Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - Generative Zero-Shot Learning for Semantic Segmentation of 3D Point
Cloud [79.99653758293277]
本稿では,ZSL(Zero-Shot Learning)とGZSL(Generalized ZSL)の両方を3次元データ上に生成する手法を提案する。
インダクティブZSLとインダクティブGZSLの両方に対して,ModelNet40分類における技術状況に到達または向上することを示す。
実験の結果,本手法は強いベースラインよりも優れており,さらに本手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T13:29:27Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Contrastive Embedding for Generalized Zero-Shot Learning [22.050109158293402]
汎用ゼロショット学習(GZSL)は、目に見えないクラスと見えないクラスの両方からオブジェクトを認識することを目的としている。
最近の特徴生成手法は、見当たらないクラスの視覚的特徴を合成できる生成モデルを学ぶ。
本稿では,生成モデルを組込みモデルに統合し,ハイブリッドgzslフレームワークを実現することを提案する。
論文 参考訳(メタデータ) (2021-03-30T08:54:03Z) - Task Aligned Generative Meta-learning for Zero-shot Learning [64.16125851588437]
ゼロショット学習のためのタスク整合型ジェネラティブメタラーニングモデル(TGMZ)の提案
TGMZはバイアスのあるトレーニングを緩和し、メタZSLが多様な分布を含む現実世界のデータセットに対応できるようにする。
最先端アルゴリズムとの比較により,awa1,awa2,cub,apyデータセット上でtgmzが達成した2.1%,3.0%,2.5%,7.6%の改善が示された。
論文 参考訳(メタデータ) (2021-03-03T05:18:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。