論文の概要: ProCC: Progressive Cross-primitive Consistency for Open-World
Compositional Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2211.12417v1
- Date: Sat, 19 Nov 2022 10:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:27:26.186929
- Title: ProCC: Progressive Cross-primitive Consistency for Open-World
Compositional Zero-Shot Learning
- Title(参考訳): ProCC: オープンワールド構成ゼロショット学習のためのプログレッシブなクロスプライミティブ一貫性
- Authors: Fushuo Huo, Wenchao Xu, Song Guo, Jingcai Guo, Haozhao Wang, Ziming
Liu
- Abstract要約: Open-World Composal Zero-shot Learning (OW-CZSL) は、画像中の状態とオブジェクトプリミティブの新規な構成を認識することを目的としている。
本稿では,OW-CZSLタスクの人間の学習過程を模倣するプログレッシブ・クロスプライミティブ・一貫性(Progressive Cross-primitive Consistency, ProCC)を提案する。
- 参考スコア(独自算出の注目度): 17.032957888151667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-World Compositional Zero-shot Learning (OW-CZSL) aims to recognize novel
compositions of state and object primitives in images with no priors on the
compositional space, which induces a tremendously large output space containing
all possible state-object compositions. Existing works either learn the joint
compositional state-object embedding or predict simple primitives with separate
classifiers. However, the former heavily relies on external word embedding
methods, and the latter ignores the interactions of interdependent primitives,
respectively. In this paper, we revisit the primitive prediction approach and
propose a novel method, termed Progressive Cross-primitive Consistency (ProCC),
to mimic the human learning process for OW-CZSL tasks. Specifically, the
cross-primitive consistency module explicitly learns to model the interactions
of state and object features with the trainable memory units, which efficiently
acquires cross-primitive visual attention and avoids cross-primitive
feasibility scores. Moreover, considering the partial-supervision setting
(pCZSL) as well as the imbalance issue of multiple tasks prediction, we design
a progressive training paradigm to enable the primitive classifiers to interact
to obtain discriminative information in an easy-to-hard manner. Extensive
experiments on three widely used benchmark datasets demonstrate that our method
outperforms other representative methods on both OW-CZSL and pCZSL settings by
l
- Abstract(参考訳): open-world compositional zero-shot learning (ow-czsl) は、合成空間に先行しない画像における状態および対象プリミティブの新しい合成を認識することを目的としている。
既存の作品は結合状態オブジェクト埋め込みを学習するか、別々の分類器で単純なプリミティブを予測する。
しかし、前者は外部単語埋め込み法に大きく依存しており、後者は相互依存プリミティブの相互作用を無視している。
本稿では,プリミティブ予測法を再検討し,ow-czslタスクの人間学習プロセスを模倣するprogressive cross-primitive consistency(procc)と呼ばれる新しい手法を提案する。
具体的には、クロスプライミティブな一貫性モジュールは、トレーニング可能なメモリユニットとの状態とオブジェクトの相互作用をモデル化することを明示的に学習する。
さらに,複数タスク予測の不均衡問題だけでなく,部分スーパービジョン設定 (pCZSL) も考慮し,プリミティブな分類器が対話して識別情報を手軽に取得できるように,プログレッシブトレーニングパラダイムを設計する。
本手法がow-czslとpczslの2つの代表的な手法をlで上回ることを示す3つのベンチマークデータセットに関する広範囲な実験を行った。
関連論文リスト
- Cross-composition Feature Disentanglement for Compositional Zero-shot Learning [49.919635694894204]
合成ゼロショット学習(CZSL)において、プリミティブ(属性とオブジェクト)の視覚的特徴の歪みは例外的な結果を示した。
本稿では,複数のプリミティブ・シェアリング・コンポジションを入力とし,これらのコンポジションにまたがって一般化されるような不整合プリミティブ・コンポジションを制約するクロス・コンポジション・コンストラクション・ディエンタングルメントの解を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:23:09Z) - Attention Based Simple Primitives for Open World Compositional Zero-Shot Learning [12.558701595138928]
合成ゼロショット学習(CZSL)は属性とオブジェクトペアからなる未知の合成を予測することを目的としている。
この研究では、私たちのテストスペースが属性とオブジェクトの潜在的な組み合わせをすべて包含するオープンワールド構成ゼロショット学習(OW-CZSL)を探求しています。
提案手法では, 属性とオブジェクト間の自己認識機構を利用して, 目に見えるものから見えないものまで, より優れた一般化を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:11:29Z) - Contextual Interaction via Primitive-based Adversarial Training For Compositional Zero-shot Learning [23.757252768668497]
合成ゼロショット学習(CZSL)は、既知の属性オブジェクト対を通じて新規な合成を識別することを目的としている。
CZSLタスクの最大の課題は、属性とオブジェクトの視覚的プリミティブの間の複雑な相互作用によって導入された大きな相違にある。
本稿では,モデルに依存しない原始的適応学習(PBadv)手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:18:30Z) - Supervised Stochastic Neighbor Embedding Using Contrastive Learning [4.560284382063488]
同じクラスに属するサンプルのクラスタは、低次元の埋め込み空間にまとめられる。
我々は、自己教師付きコントラスト的アプローチを完全教師付き設定に拡張し、ラベル情報を効果的に活用する。
論文 参考訳(メタデータ) (2023-09-15T00:26:21Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Simple Primitives with Feasibility- and Contextuality-Dependence for
Open-World Compositional Zero-shot Learning [86.5258816031722]
コンポジションゼロショット学習(CZSL)の課題は、トレーニング段階で欠落している新しい状態オブジェクトのイメージを認識することである。
コンポジション埋め込みの学習方法は、クローズドワールドCZSLにおいて有効であることが示されている。
オープンワールドCZSL (OW-CZSL) では, 組成の濃度が大きいため, その性能は著しく低下する傾向にある。
論文 参考訳(メタデータ) (2022-11-05T12:57:06Z) - KG-SP: Knowledge Guided Simple Primitives for Open World Compositional
Zero-Shot Learning [52.422873819371276]
オープンワールドコンポジションゼロショット学習(OW-CZSL)の目的は、画像中の状態とオブジェクトの合成を認識することである。
ここでは、単純なCZSLベースラインを再検討し、プリミティブ、すなわち状態とオブジェクトを独立して予測する。
出力空間から不可能な構成を除去するために, 外部知識を用いて各構成の有効性を推定する。
我々のモデルであるKG-SPはOW-CZSLとpCZSLの両方で技術の状態を達成する。
論文 参考訳(メタデータ) (2022-05-13T17:18:15Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Pairwise Similarity Knowledge Transfer for Weakly Supervised Object
Localization [53.99850033746663]
弱教師付き画像ラベルを持つ対象クラスにおける局所化モデル学習の問題点について検討する。
本研究では,対象関数のみの学習は知識伝達の弱い形態であると主張する。
COCOおよびILSVRC 2013検出データセットの実験では、ペアワイズ類似度関数を含むことにより、ローカライズモデルの性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-03-18T17:53:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。