論文の概要: ZeroDiff++: Substantial Unseen Visual-semantic Correlation in Zero-shot Learning
- arxiv url: http://arxiv.org/abs/2602.12401v1
- Date: Thu, 12 Feb 2026 20:52:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.74968
- Title: ZeroDiff++: Substantial Unseen Visual-semantic Correlation in Zero-shot Learning
- Title(参考訳): ZeroDiff++: ゼロショット学習における静的無意味な視覚的意味相関
- Authors: Zihan Ye, Shreyank N Gowda, Kaile Du, Weijian Luo, Ling Shao,
- Abstract要約: 目に見えるクラスや目に見えないクラスに対して、スプリアスネスを定量化するためのメトリクスを導入します。
拡散型生成フレームワークZeroDiff++を提案する。
3つのZSLベンチマークの実験では、ZeroDiff++は既存のZSLメソッドよりも大幅に改善されているだけでなく、トレーニングデータが少なくても堅牢なパフォーマンスを維持している。
- 参考スコア(独自算出の注目度): 42.855022683292276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot Learning (ZSL) enables classifiers to recognize classes unseen during training, commonly via generative two stage methods: (1) learn visual semantic correlations from seen classes; (2) synthesize unseen class features from semantics to train classifiers. In this paper, we identify spurious visual semantic correlations in existing generative ZSL worsened by scarce seen class samples and introduce two metrics to quantify spuriousness for seen and unseen classes. Furthermore, we point out a more critical bottleneck: existing unadaptive fully noised generators produce features disconnected from real test samples, which also leads to the spurious correlation. To enhance the visual-semantic correlations on both seen and unseen classes, we propose ZeroDiff++, a diffusion-based generative framework. In training, ZeroDiff++ uses (i) diffusion augmentation to produce diverse noised samples, (ii) supervised contrastive (SC) representations for instance level semantics, and (iii) multi view discriminators with Wasserstein mutual learning to assess generated features. At generation time, we introduce (iv) Diffusion-based Test time Adaptation (DiffTTA) to adapt the generator using pseudo label reconstruction, and (v) Diffusion-based Test time Generation (DiffGen) to trace the diffusion denoising path and produce partially synthesized features that connect real and generated data, and mitigates data scarcity further. Extensive experiments on three ZSL benchmarks demonstrate that ZeroDiff++ not only achieves significant improvements over existing ZSL methods but also maintains robust performance even with scarce training data. Code would be available.
- Abstract(参考訳): ゼロショットラーニング (ZSL) では,(1)視覚的セマンティックな相関関係を学習し,(2) 意味学から訓練用セマンティックなクラス特徴を合成する。
本稿では,既存の生成的ZSLにおける視覚的セマンティックな相関関係を,希少なクラスサンプルにより悪化させ,見知らぬクラスに対するスプリアスネスを定量化するための2つの指標を提案する。
さらに、我々は、既存の非適応完全ノイズ発生器が実際のテストサンプルから切り離された特徴を生み出すという、より重要なボトルネックを指摘した。
目に見えるクラスと見えないクラスの両方における視覚的意味的相関を強化するために,拡散に基づく生成フレームワークであるZeroDiff++を提案する。
トレーニングではZeroDiff++が使用します
一 拡散増強により各種ノイズサンプルを作成すること。
(ii)インスタンスレベルの意味論のための教師付きコントラスト(SC)表現、及び
(3)ワッサーシュタイン相互学習を用いた多視点判別器による特徴量評価
代々紹介する
4)拡散に基づくテスト時間適応(DiffTTA)による擬似ラベル再構成によるジェネレータの適応
(v)拡散に基づくテスト時間生成(DiffGen)により、拡散復調経路を辿り、実データと生成されたデータを接続する部分合成された特徴を生成し、さらにデータ不足を緩和する。
3つのZSLベンチマークの大規模な実験によると、ZeroDiff++は既存のZSLメソッドよりも大幅に改善されているだけでなく、トレーニングデータが少ない場合でも堅牢なパフォーマンスを維持している。
コードは利用可能。
関連論文リスト
- ZeroDiff: Solidified Visual-Semantic Correlation in Zero-Shot Learning [38.36200871549062]
クラスサンプルの不足は、多くの生成的ゼロショット学習技術で顕著な性能低下をもたらす。
我々はZSLのための革新的な生成フレームワークであるZeroDiffを紹介した。
ZeroDiffは既存のZSLメソッドよりも大幅に改善されているだけでなく、トレーニングデータが少ない場合でも堅牢なパフォーマンスを維持している。
論文 参考訳(メタデータ) (2024-06-05T04:37:06Z) - Resolving Semantic Confusions for Improved Zero-Shot Detection [6.72910827751713]
本稿では,クラス間の相違度を認識する三重項損失を考慮した生成モデルを提案する。
クラスの生成した視覚的サンプルが、自身のセマンティクスに高度に対応していることを保証するために、サイクリック一貫性損失も実施される。
論文 参考訳(メタデータ) (2022-12-12T18:11:48Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Zero-Shot Logit Adjustment [89.68803484284408]
Generalized Zero-Shot Learning (GZSL) は意味記述に基づく学習技術である。
本稿では,分類器の改良を無視しつつ,ジェネレータの効果を高める新しい世代ベース手法を提案する。
実験により,提案手法が基本生成器と組み合わせた場合の最先端化を実現し,様々なゼロショット学習フレームワークを改良できることが実証された。
論文 参考訳(メタデータ) (2022-04-25T17:54:55Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。