論文の概要: Learning by Imagining: Debiased Feature Augmentation for Compositional Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2509.12711v1
- Date: Tue, 16 Sep 2025 06:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.91417
- Title: Learning by Imagining: Debiased Feature Augmentation for Compositional Zero-Shot Learning
- Title(参考訳): Imaginingによる学習: 構成ゼロショット学習のためのデバイアス機能強化
- Authors: Haozhe Zhang, Chenchen Jing, Mingyu Liu, Qingsheng Wang, Hao Chen,
- Abstract要約: 合成ゼロショット学習(CZSL)は、見知らぬプリミティブの事前知識を学習することによって、見つからない属性オブジェクトの合成を認識することを目的としている。
本稿では,これらの課題に対処するため,Debiased Feature Augmentation (DeFA) という新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 23.380192229142924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compositional Zero-Shot Learning (CZSL) aims to recognize unseen attribute-object compositions by learning prior knowledge of seen primitives, \textit{i.e.}, attributes and objects. Learning generalizable compositional representations in CZSL remains challenging due to the entangled nature of attributes and objects as well as the prevalence of long-tailed distributions in real-world data. Inspired by neuroscientific findings that imagination and perception share similar neural processes, we propose a novel approach called Debiased Feature Augmentation (DeFA) to address these challenges. The proposed DeFA integrates a disentangle-and-reconstruct framework for feature augmentation with a debiasing strategy. DeFA explicitly leverages the prior knowledge of seen attributes and objects by synthesizing high-fidelity composition features to support compositional generalization. Extensive experiments on three widely used datasets demonstrate that DeFA achieves state-of-the-art performance in both \textit{closed-world} and \textit{open-world} settings.
- Abstract(参考訳): compositional Zero-Shot Learning (CZSL) は、見知らぬプリミティブ、 \textit{i.e.} 、属性、オブジェクトの事前知識を学習することで、目に見えない属性オブジェクトの合成を認識することを目的としている。
CZSLにおける一般化可能な構成表現の学習は、属性やオブジェクトの絡み合った性質と、実世界のデータにおける長い尾分布の出現により、依然として困難である。
視覚と知覚が類似した神経プロセスを共有するという神経科学的な知見に触発されて、これらの課題に対処するために、Debiased Feature Augmentation (DeFA)と呼ばれる新しいアプローチを提案する。
提案したDeFAでは,機能拡張のためのアンタングル・アンド・リコンストラクションフレームワークとデバイアス戦略を統合している。
DeFAは、合成の一般化をサポートするために高忠実な合成特徴を合成することにより、目に見える属性やオブジェクトの事前の知識を明示的に活用する。
広く使用されている3つのデータセットに対する大規模な実験は、DeFAが \textit{closed-world} と \textit{open-world} の両方の設定で最先端のパフォーマンスを達成することを示した。
関連論文リスト
- A Conditional Probability Framework for Compositional Zero-shot Learning [86.86063926727489]
合成ゼロショット学習(CZSL)は、既知の合成から知識を活用することで、既知のオブジェクトと属性の見知らぬ組み合わせを認識することを目的としている。
従来のアプローチは、主に属性とオブジェクトを分離することに焦点を当て、学習中にそれらを独立したエンティティとして扱う。
属性オブジェクトの依存関係を明示的にモデル化するために、条件付き確率フレームワーク(CPF)を採用しています。
論文 参考訳(メタデータ) (2025-07-23T10:20:52Z) - Leveraging MLLM Embeddings and Attribute Smoothing for Compositional Zero-Shot Learning [21.488599805772054]
合成ゼロショット学習は、見かけの合成から学んだ属性やオブジェクトの新規な構成を認識することを目的としている。
以前の作業では、同じ属性を共有するイメージペア間の共有部分と排他的部分を抽出することで、属性とオブジェクトを歪めていた。
マルチモーダル大言語モデル (MLLM) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T07:55:54Z) - Graph-guided Cross-composition Feature Disentanglement for Compositional Zero-shot Learning [54.08741382593959]
合成ゼロショット学習(CZSL)において、プリミティブ(属性とオブジェクト)の視覚的特徴の歪みは例外的な結果を示した。
異なる構成にまたがる一般的な非絡み合った原始的特徴を学ぶことは困難である。
本稿では,複数のプリミティブ共有合成を入力として利用するクロスコンポジション特徴分散の解を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:23:09Z) - Attention Based Simple Primitives for Open World Compositional Zero-Shot Learning [12.558701595138928]
合成ゼロショット学習(CZSL)は属性とオブジェクトペアからなる未知の合成を予測することを目的としている。
この研究では、私たちのテストスペースが属性とオブジェクトの潜在的な組み合わせをすべて包含するオープンワールド構成ゼロショット学習(OW-CZSL)を探求しています。
提案手法では, 属性とオブジェクト間の自己認識機構を利用して, 目に見えるものから見えないものまで, より優れた一般化を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:11:29Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Distilled Reverse Attention Network for Open-world Compositional
Zero-Shot Learning [42.138756191997295]
Open-World Composal Zero-Shot Learning (OW-CZSL) は、目に見える属性やオブジェクトの新しい構成を認識することを目的としている。
従来のクローズドワールド・セッティング上に構築されたOW-CZSL法は、制約のないOW試験空間のために著しく劣化した。
本稿では,その課題に対処する新しいディスティルト・リバース・アテンション・ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T10:52:20Z) - Learning Invariant Visual Representations for Compositional Zero-Shot
Learning [30.472541551048508]
合成ゼロショット学習 (CZSL) は,目に見える対象の合成から学習した知識を用いて,新しい構成を認識することを目的としている。
本稿では,異なる領域を表現レベルと勾配レベルで整列させる不変な特徴学習フレームワークを提案する。
2つのCZSLベンチマーク実験により,提案手法が従来の最先端技術よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-06-01T11:33:33Z) - KG-SP: Knowledge Guided Simple Primitives for Open World Compositional
Zero-Shot Learning [52.422873819371276]
オープンワールドコンポジションゼロショット学習(OW-CZSL)の目的は、画像中の状態とオブジェクトの合成を認識することである。
ここでは、単純なCZSLベースラインを再検討し、プリミティブ、すなわち状態とオブジェクトを独立して予測する。
出力空間から不可能な構成を除去するために, 外部知識を用いて各構成の有効性を推定する。
我々のモデルであるKG-SPはOW-CZSLとpCZSLの両方で技術の状態を達成する。
論文 参考訳(メタデータ) (2022-05-13T17:18:15Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。