論文の概要: ProCC: Progressive Cross-primitive Consistency for Open-World
Compositional Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2211.12417v1
- Date: Sat, 19 Nov 2022 10:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:27:26.186929
- Title: ProCC: Progressive Cross-primitive Consistency for Open-World
Compositional Zero-Shot Learning
- Title(参考訳): ProCC: オープンワールド構成ゼロショット学習のためのプログレッシブなクロスプライミティブ一貫性
- Authors: Fushuo Huo, Wenchao Xu, Song Guo, Jingcai Guo, Haozhao Wang, Ziming
Liu
- Abstract要約: Open-World Composal Zero-shot Learning (OW-CZSL) は、画像中の状態とオブジェクトプリミティブの新規な構成を認識することを目的としている。
本稿では,OW-CZSLタスクの人間の学習過程を模倣するプログレッシブ・クロスプライミティブ・一貫性(Progressive Cross-primitive Consistency, ProCC)を提案する。
- 参考スコア(独自算出の注目度): 17.032957888151667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-World Compositional Zero-shot Learning (OW-CZSL) aims to recognize novel
compositions of state and object primitives in images with no priors on the
compositional space, which induces a tremendously large output space containing
all possible state-object compositions. Existing works either learn the joint
compositional state-object embedding or predict simple primitives with separate
classifiers. However, the former heavily relies on external word embedding
methods, and the latter ignores the interactions of interdependent primitives,
respectively. In this paper, we revisit the primitive prediction approach and
propose a novel method, termed Progressive Cross-primitive Consistency (ProCC),
to mimic the human learning process for OW-CZSL tasks. Specifically, the
cross-primitive consistency module explicitly learns to model the interactions
of state and object features with the trainable memory units, which efficiently
acquires cross-primitive visual attention and avoids cross-primitive
feasibility scores. Moreover, considering the partial-supervision setting
(pCZSL) as well as the imbalance issue of multiple tasks prediction, we design
a progressive training paradigm to enable the primitive classifiers to interact
to obtain discriminative information in an easy-to-hard manner. Extensive
experiments on three widely used benchmark datasets demonstrate that our method
outperforms other representative methods on both OW-CZSL and pCZSL settings by
l
- Abstract(参考訳): open-world compositional zero-shot learning (ow-czsl) は、合成空間に先行しない画像における状態および対象プリミティブの新しい合成を認識することを目的としている。
既存の作品は結合状態オブジェクト埋め込みを学習するか、別々の分類器で単純なプリミティブを予測する。
しかし、前者は外部単語埋め込み法に大きく依存しており、後者は相互依存プリミティブの相互作用を無視している。
本稿では,プリミティブ予測法を再検討し,ow-czslタスクの人間学習プロセスを模倣するprogressive cross-primitive consistency(procc)と呼ばれる新しい手法を提案する。
具体的には、クロスプライミティブな一貫性モジュールは、トレーニング可能なメモリユニットとの状態とオブジェクトの相互作用をモデル化することを明示的に学習する。
さらに,複数タスク予測の不均衡問題だけでなく,部分スーパービジョン設定 (pCZSL) も考慮し,プリミティブな分類器が対話して識別情報を手軽に取得できるように,プログレッシブトレーニングパラダイムを設計する。
本手法がow-czslとpczslの2つの代表的な手法をlで上回ることを示す3つのベンチマークデータセットに関する広範囲な実験を行った。
関連論文リスト
- Revealing the Proximate Long-Tail Distribution in Compositional
Zero-Shot Learning [20.837664254230567]
合成ゼロショット学習(CZSL)は、目に見える状態オブジェクト対から新しいペアへ知識を伝達することを目的としている。
状態オブジェクトの組み合わせの予測によって引き起こされる視覚バイアスは、識別可能なクラスプロトタイプの学習を妨げる視覚的特徴を曖昧にする。
CZSLの長尾分布におけるクラスの役割を数学的に推定する。
この知見に基づいて, 合成による視覚的偏見を分類器の訓練と推定に組み入れ, 事前の近似クラスとして推定する。
論文 参考訳(メタデータ) (2023-12-26T07:35:02Z) - Supervised Stochastic Neighbor Embedding Using Contrastive Learning [4.560284382063488]
同じクラスに属するサンプルのクラスタは、低次元の埋め込み空間にまとめられる。
我々は、自己教師付きコントラスト的アプローチを完全教師付き設定に拡張し、ラベル情報を効果的に活用する。
論文 参考訳(メタデータ) (2023-09-15T00:26:21Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Prompting Language-Informed Distribution for Compositional Zero-Shot
Learning [80.29186197773636]
合成ゼロショット学習(CZSL)タスクは、目に見えない視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - Distilled Reverse Attention Network for Open-world Compositional
Zero-Shot Learning [42.138756191997295]
Open-World Composal Zero-Shot Learning (OW-CZSL) は、目に見える属性やオブジェクトの新しい構成を認識することを目的としている。
従来のクローズドワールド・セッティング上に構築されたOW-CZSL法は、制約のないOW試験空間のために著しく劣化した。
本稿では,その課題に対処する新しいディスティルト・リバース・アテンション・ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T10:52:20Z) - Decomposed Soft Prompt Guided Fusion Enhancing for Compositional
Zero-Shot Learning [15.406125901927004]
本稿では、視覚言語モデル(VLM)を組み込んで、不明瞭な合成認識を実現することによって、DFSP(Decomposed Fusion with Soft Prompt)1という新しいフレームワークを提案する。
具体的には、DFSPは学習可能なソフトプロンプトと状態とオブジェクトのベクトル結合を構築し、それらの結合表現を確立する。
さらに、言語とイメージブランチの間にクロスモーダル融合モジュールが設計されており、画像の特徴ではなく、言語機能間で状態とオブジェクトを分解する。
論文 参考訳(メタデータ) (2022-11-19T12:29:12Z) - Simple Primitives with Feasibility- and Contextuality-Dependence for
Open-World Compositional Zero-shot Learning [86.5258816031722]
コンポジションゼロショット学習(CZSL)の課題は、トレーニング段階で欠落している新しい状態オブジェクトのイメージを認識することである。
コンポジション埋め込みの学習方法は、クローズドワールドCZSLにおいて有効であることが示されている。
オープンワールドCZSL (OW-CZSL) では, 組成の濃度が大きいため, その性能は著しく低下する傾向にある。
論文 参考訳(メタデータ) (2022-11-05T12:57:06Z) - KG-SP: Knowledge Guided Simple Primitives for Open World Compositional
Zero-Shot Learning [52.422873819371276]
オープンワールドコンポジションゼロショット学習(OW-CZSL)の目的は、画像中の状態とオブジェクトの合成を認識することである。
ここでは、単純なCZSLベースラインを再検討し、プリミティブ、すなわち状態とオブジェクトを独立して予測する。
出力空間から不可能な構成を除去するために, 外部知識を用いて各構成の有効性を推定する。
我々のモデルであるKG-SPはOW-CZSLとpCZSLの両方で技術の状態を達成する。
論文 参考訳(メタデータ) (2022-05-13T17:18:15Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Pairwise Similarity Knowledge Transfer for Weakly Supervised Object
Localization [53.99850033746663]
弱教師付き画像ラベルを持つ対象クラスにおける局所化モデル学習の問題点について検討する。
本研究では,対象関数のみの学習は知識伝達の弱い形態であると主張する。
COCOおよびILSVRC 2013検出データセットの実験では、ペアワイズ類似度関数を含むことにより、ローカライズモデルの性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-03-18T17:53:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。