論文の概要: Compositional Zero-Shot Learning: A Survey
- arxiv url: http://arxiv.org/abs/2510.11106v1
- Date: Mon, 13 Oct 2025 07:54:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.25079
- Title: Compositional Zero-Shot Learning: A Survey
- Title(参考訳): 構成的ゼロショット学習:サーベイ
- Authors: Ans Munir, Faisal Z. Qureshi, Mohsen Ali, Muhammad Haris Khan,
- Abstract要約: 合成ゼロショット学習(CZSL)は、コンピュータビジョンにおいて重要なタスクであり、モデルが推論中に既知の属性とオブジェクトの見知らぬ組み合わせを認識できるようにする。
我々は,現在最先端のCZSL手法を体系的に検討し,絡み合いに基づく分類を導入した。
我々はこれらの手法の詳細な比較分析を行い、それらの中核となる利点と異なる問題設定における制限を強調した。
- 参考スコア(独自算出の注目度): 25.610162720275344
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Compositional Zero-Shot Learning (CZSL) is a critical task in computer vision that enables models to recognize unseen combinations of known attributes and objects during inference, addressing the combinatorial challenge of requiring training data for every possible composition. This is particularly challenging because the visual appearance of primitives is highly contextual; for example, ``small'' cats appear visually distinct from ``older'' ones, and ``wet'' cars differ significantly from ``wet'' cats. Effectively modeling this contextuality and the inherent compositionality is crucial for robust compositional zero-shot recognition. This paper presents, to our knowledge, the first comprehensive survey specifically focused on Compositional Zero-Shot Learning. We systematically review the state-of-the-art CZSL methods, introducing a taxonomy grounded in disentanglement, with four families of approaches: no explicit disentanglement, textual disentanglement, visual disentanglement, and cross-modal disentanglement. We provide a detailed comparative analysis of these methods, highlighting their core advantages and limitations in different problem settings, such as closed-world and open-world CZSL. Finally, we identify the most significant open challenges and outline promising future research directions. This survey aims to serve as a foundational resource to guide and inspire further advancements in this fascinating and important field. Papers studied in this survey with their official code are available on our github: https://github.com/ans92/Compositional-Zero-Shot-Learning
- Abstract(参考訳): 合成ゼロショット学習(CZSL)はコンピュータビジョンにおいて重要なタスクであり、モデルが推論中に未知の属性とオブジェクトの組み合わせを認識できるようにする。
例えば、『小』の猫は『小』の猫とは視覚的に異なるように見えるし、『小』の車は『小』の猫とは著しく異なる。
この文脈性と固有の構成性を効果的にモデル化することは、堅牢な合成ゼロショット認識に不可欠である。
本稿では,作曲ゼロショット学習に焦点を当てた初の総合的な調査について述べる。
我々は,現在最先端のCZSL手法を体系的に検討し,無形無形・無形無形・無形無形・無形・多形無形・無形無形・無形無形・無形無形・無形・無形無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形・無形
我々はこれらの手法の詳細な比較分析を行い、クローズドワールドやオープンワールドのCZSLのような様々な問題設定におけるそれらのコアアドバンテージと制限を強調した。
最後に、最も重要なオープン課題を特定し、将来的な研究の方向性を概説する。
この調査は、この魅力的な重要な分野のさらなる進歩をガイドし、刺激する基盤となるリソースとして機能することを目的としている。
この調査で研究された公式コードによる論文は、我々のgithubで公開されている。
関連論文リスト
- Contextual Interaction via Primitive-based Adversarial Training For Compositional Zero-shot Learning [23.757252768668497]
合成ゼロショット学習(CZSL)は、既知の属性オブジェクト対を通じて新規な合成を識別することを目的としている。
CZSLタスクの最大の課題は、属性とオブジェクトの視覚的プリミティブの間の複雑な相互作用によって導入された大きな相違にある。
本稿では,モデルに依存しない原始的適応学習(PBadv)手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:18:30Z) - Prompting Language-Informed Distribution for Compositional Zero-Shot Learning [73.49852821602057]
合成ゼロショット学習(CZSL)タスクは、目に見えない合成視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - Distilled Reverse Attention Network for Open-world Compositional
Zero-Shot Learning [42.138756191997295]
Open-World Composal Zero-Shot Learning (OW-CZSL) は、目に見える属性やオブジェクトの新しい構成を認識することを目的としている。
従来のクローズドワールド・セッティング上に構築されたOW-CZSL法は、制約のないOW試験空間のために著しく劣化した。
本稿では,その課題に対処する新しいディスティルト・リバース・アテンション・ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T10:52:20Z) - Simple Primitives with Feasibility- and Contextuality-Dependence for
Open-World Compositional Zero-shot Learning [86.5258816031722]
コンポジションゼロショット学習(CZSL)の課題は、トレーニング段階で欠落している新しい状態オブジェクトのイメージを認識することである。
コンポジション埋め込みの学習方法は、クローズドワールドCZSLにおいて有効であることが示されている。
オープンワールドCZSL (OW-CZSL) では, 組成の濃度が大きいため, その性能は著しく低下する傾向にある。
論文 参考訳(メタデータ) (2022-11-05T12:57:06Z) - Learning Attention Propagation for Compositional Zero-Shot Learning [71.55375561183523]
コンポジションアテンション・プロパゲード・エンベディング(CAPE)と呼ばれる新しい手法を提案する。
CAPEは、この構造を識別し、それらの間の知識を伝播して、目に見えないすべての構成に対するクラス埋め込みを学ぶ。
提案手法は,3つの公開ベンチマークに対して,新しい最先端のベンチマークを設定するために,従来のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-20T19:44:11Z) - Reference-Limited Compositional Zero-Shot Learning [19.10692212692771]
合成ゼロショット学習(CZSL)は、既知の視覚的プリミティブの未知の合成を認識することを指す。
本稿では,メタコンポジショングラフ学習システム(MetaCGL)を提案する。
論文 参考訳(メタデータ) (2022-08-22T03:58:02Z) - Learning Graph Embeddings for Open World Compositional Zero-Shot
Learning [47.09665742252187]
コンポジションゼロショット学習(CZSL)は、トレーニング中に見られる状態とオブジェクトの視覚的プリミティブの見えない構成を認識することを目的としている。
Co-CGE(Compositional Cosine Graph Embeddings)を提案する。
Co-CGEは、グラフ畳み込みニューラルネットワークを介して状態、オブジェクトおよびそれらの組成間の依存性をモデル化する。
論文 参考訳(メタデータ) (2021-05-03T17:08:21Z) - Learning Graph Embeddings for Compositional Zero-shot Learning [73.80007492964951]
合成ゼロショット学習では、観察された視覚的原始状態の見えない構成を認識することが目的である。
本稿では,画像特徴と視覚的プリミティブの潜在表現をエンドツーエンドに学習するCGEという新しいグラフ定式化を提案する。
概念間のセマンティクスを符号化する共同互換性を学習することにより、WordNetのような外部知識ベースに頼ることなく、構成を見えないように一般化することができる。
論文 参考訳(メタデータ) (2021-02-03T10:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。