論文の概要: ProCC: Progressive Cross-primitive Compatibility for Open-World
Compositional Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2211.12417v4
- Date: Fri, 15 Dec 2023 11:50:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 19:43:58.968390
- Title: ProCC: Progressive Cross-primitive Compatibility for Open-World
Compositional Zero-Shot Learning
- Title(参考訳): ProCC: オープンワールド構成ゼロショット学習のためのプログレッシブ・クロスプライミティブ・コンパチビリティ
- Authors: Fushuo Huo, Wenchao Xu, Song Guo, Jingcai Guo, Haozhao Wang, Ziming
Liu, Xiaocheng Lu
- Abstract要約: Open-World Composal Zero-shot Learning (OW-CZSL) は、コンポジション空間に先立って、画像中の状態とオブジェクトプリミティブの新規なコンポジションを認識することを目的としている。
本稿では,OW-CZSLタスクの学習過程を模倣する,Progressive Cross-primitive Compatibility (ProCC) と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 29.591615811894265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-World Compositional Zero-shot Learning (OW-CZSL) aims to recognize novel
compositions of state and object primitives in images with no priors on the
compositional space, which induces a tremendously large output space containing
all possible state-object compositions. Existing works either learn the joint
compositional state-object embedding or predict simple primitives with separate
classifiers. However, the former heavily relies on external word embedding
methods, and the latter ignores the interactions of interdependent primitives,
respectively. In this paper, we revisit the primitive prediction approach and
propose a novel method, termed Progressive Cross-primitive Compatibility
(ProCC), to mimic the human learning process for OW-CZSL tasks. Specifically,
the cross-primitive compatibility module explicitly learns to model the
interactions of state and object features with the trainable memory units,
which efficiently acquires cross-primitive visual attention to reason
high-feasibility compositions, without the aid of external knowledge. Moreover,
considering the partial-supervision setting (pCZSL) as well as the imbalance
issue of multiple task prediction, we design a progressive training paradigm to
enable the primitive classifiers to interact to obtain discriminative
information in an easy-to-hard manner. Extensive experiments on three widely
used benchmark datasets demonstrate that our method outperforms other
representative methods on both OW-CZSL and pCZSL settings by large margins.
- Abstract(参考訳): open-world compositional zero-shot learning (ow-czsl) は、合成空間に先行しない画像における状態および対象プリミティブの新しい合成を認識することを目的としている。
既存の作品は結合状態オブジェクト埋め込みを学習するか、別々の分類器で単純なプリミティブを予測する。
しかし、前者は外部単語埋め込み法に大きく依存しており、後者は相互依存プリミティブの相互作用を無視している。
本稿では,プリミティブ予測法を再検討し,ow-czslタスクの人間学習プロセスを模倣するprogressive cross-primitive compatibility(procc)と呼ばれる新しい手法を提案する。
具体的には、クロスプリミティブ互換性モジュールは、状態とオブジェクトの特徴とトレーニング可能なメモリユニットとの相互作用を明示的にモデル化することを学習し、外部の知識を必要とせずに、効率的にクロスプリミティブな視覚的な注意を得られる。
さらに,複数タスク予測の不均衡問題と同様に部分スーパービジョン設定(pczsl)も考慮し,プリミティブ分類器が対話し,容易に識別可能な情報を得るためのプログレッシブトレーニングパラダイムを設計した。
本手法はOW-CZSLおよびpCZSL設定において,他の代表的手法よりも大きなマージンで優れることを示した。
関連論文リスト
- Cross-composition Feature Disentanglement for Compositional Zero-shot Learning [49.919635694894204]
合成ゼロショット学習(CZSL)において、プリミティブ(属性とオブジェクト)の視覚的特徴の歪みは例外的な結果を示した。
本稿では,複数のプリミティブ・シェアリング・コンポジションを入力とし,これらのコンポジションにまたがって一般化されるような不整合プリミティブ・コンポジションを制約するクロス・コンポジション・コンストラクション・ディエンタングルメントの解を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:23:09Z) - Attention Based Simple Primitives for Open World Compositional Zero-Shot Learning [12.558701595138928]
合成ゼロショット学習(CZSL)は属性とオブジェクトペアからなる未知の合成を予測することを目的としている。
この研究では、私たちのテストスペースが属性とオブジェクトの潜在的な組み合わせをすべて包含するオープンワールド構成ゼロショット学習(OW-CZSL)を探求しています。
提案手法では, 属性とオブジェクト間の自己認識機構を利用して, 目に見えるものから見えないものまで, より優れた一般化を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:11:29Z) - Contextual Interaction via Primitive-based Adversarial Training For Compositional Zero-shot Learning [23.757252768668497]
合成ゼロショット学習(CZSL)は、既知の属性オブジェクト対を通じて新規な合成を識別することを目的としている。
CZSLタスクの最大の課題は、属性とオブジェクトの視覚的プリミティブの間の複雑な相互作用によって導入された大きな相違にある。
本稿では,モデルに依存しない原始的適応学習(PBadv)手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:18:30Z) - Supervised Stochastic Neighbor Embedding Using Contrastive Learning [4.560284382063488]
同じクラスに属するサンプルのクラスタは、低次元の埋め込み空間にまとめられる。
我々は、自己教師付きコントラスト的アプローチを完全教師付き設定に拡張し、ラベル情報を効果的に活用する。
論文 参考訳(メタデータ) (2023-09-15T00:26:21Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Simple Primitives with Feasibility- and Contextuality-Dependence for
Open-World Compositional Zero-shot Learning [86.5258816031722]
コンポジションゼロショット学習(CZSL)の課題は、トレーニング段階で欠落している新しい状態オブジェクトのイメージを認識することである。
コンポジション埋め込みの学習方法は、クローズドワールドCZSLにおいて有効であることが示されている。
オープンワールドCZSL (OW-CZSL) では, 組成の濃度が大きいため, その性能は著しく低下する傾向にある。
論文 参考訳(メタデータ) (2022-11-05T12:57:06Z) - KG-SP: Knowledge Guided Simple Primitives for Open World Compositional
Zero-Shot Learning [52.422873819371276]
オープンワールドコンポジションゼロショット学習(OW-CZSL)の目的は、画像中の状態とオブジェクトの合成を認識することである。
ここでは、単純なCZSLベースラインを再検討し、プリミティブ、すなわち状態とオブジェクトを独立して予測する。
出力空間から不可能な構成を除去するために, 外部知識を用いて各構成の有効性を推定する。
我々のモデルであるKG-SPはOW-CZSLとpCZSLの両方で技術の状態を達成する。
論文 参考訳(メタデータ) (2022-05-13T17:18:15Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Pairwise Similarity Knowledge Transfer for Weakly Supervised Object
Localization [53.99850033746663]
弱教師付き画像ラベルを持つ対象クラスにおける局所化モデル学習の問題点について検討する。
本研究では,対象関数のみの学習は知識伝達の弱い形態であると主張する。
COCOおよびILSVRC 2013検出データセットの実験では、ペアワイズ類似度関数を含むことにより、ローカライズモデルの性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-03-18T17:53:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。