論文の概要: KG-SP: Knowledge Guided Simple Primitives for Open World Compositional
Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2205.06784v1
- Date: Fri, 13 May 2022 17:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 14:03:40.781080
- Title: KG-SP: Knowledge Guided Simple Primitives for Open World Compositional
Zero-Shot Learning
- Title(参考訳): KG-SP: オープンワールドコンポジションゼロショット学習のための知識ガイド付きシンプルなプリミティブ
- Authors: Shyamgopal Karthik, Massimiliano Mancini, Zeynep Akata
- Abstract要約: オープンワールドコンポジションゼロショット学習(OW-CZSL)の目的は、画像中の状態とオブジェクトの合成を認識することである。
ここでは、単純なCZSLベースラインを再検討し、プリミティブ、すなわち状態とオブジェクトを独立して予測する。
出力空間から不可能な構成を除去するために, 外部知識を用いて各構成の有効性を推定する。
我々のモデルであるKG-SPはOW-CZSLとpCZSLの両方で技術の状態を達成する。
- 参考スコア(独自算出の注目度): 52.422873819371276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of open-world compositional zero-shot learning (OW-CZSL) is to
recognize compositions of state and objects in images, given only a subset of
them during training and no prior on the unseen compositions. In this setting,
models operate on a huge output space, containing all possible state-object
compositions. While previous works tackle the problem by learning embeddings
for the compositions jointly, here we revisit a simple CZSL baseline and
predict the primitives, i.e. states and objects, independently. To ensure that
the model develops primitive-specific features, we equip the state and object
classifiers with separate, non-linear feature extractors. Moreover, we estimate
the feasibility of each composition through external knowledge, using this
prior to remove unfeasible compositions from the output space. Finally, we
propose a new setting, i.e. CZSL under partial supervision (pCZSL), where
either only objects or state labels are available during training, and we can
use our prior to estimate the missing labels. Our model, Knowledge-Guided
Simple Primitives (KG-SP), achieves state of the art in both OW-CZSL and pCZSL,
surpassing most recent competitors even when coupled with semi-supervised
learning techniques. Code available at: https://github.com/ExplainableML/KG-SP.
- Abstract(参考訳): オープンワールド・コンポジションゼロショット・ラーニング(OW-CZSL)の目標は、トレーニング中にサブセットのみを与えられ、未確認のコンポジションに先行しない状態で、画像中の状態とオブジェクトのコンポジションを認識することである。
この設定では、モデルは巨大な出力空間で動作し、可能なすべての状態オブジェクト合成を含む。
従来の研究は合成の埋め込みを共同で学習することでこの問題に対処するが、ここでは単純なCZSLベースラインを再検討し、プリミティブ、すなわち状態とオブジェクトを独立に予測する。
モデルがプリミティブな特徴を開発することを保証するため、状態とオブジェクトの分類器に別個の非線形特徴抽出器を装備する。
さらに, 出力空間から不可能な構成を除去するために, 外部知識を用いて各構成の有効性を推定する。
最後に、トレーニング中にオブジェクトまたは状態ラベルのみを利用可能とし、不足ラベルを推定するために、事前の使用が可能な、新しい設定、すなわち、部分監督下のCZSL(pCZSL)を提案する。
我々のモデルであるKG-SP(Knowledge-Guided Simple Primitives)はOW-CZSLとpCZSLの両方で最先端の技術を達成し、半教師付き学習技術と組み合わせても、近年の競争相手を上回っている。
コードはhttps://github.com/explainableml/kg-sp。
関連論文リスト
- Cross-composition Feature Disentanglement for Compositional Zero-shot Learning [49.919635694894204]
合成ゼロショット学習(CZSL)において、プリミティブ(属性とオブジェクト)の視覚的特徴の歪みは例外的な結果を示した。
本稿では,複数のプリミティブ・シェアリング・コンポジションを入力とし,これらのコンポジションにまたがって一般化されるような不整合プリミティブ・コンポジションを制約するクロス・コンポジション・コンストラクション・ディエンタングルメントの解を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:23:09Z) - Attention Based Simple Primitives for Open World Compositional Zero-Shot Learning [12.558701595138928]
合成ゼロショット学習(CZSL)は属性とオブジェクトペアからなる未知の合成を予測することを目的としている。
この研究では、私たちのテストスペースが属性とオブジェクトの潜在的な組み合わせをすべて包含するオープンワールド構成ゼロショット学習(OW-CZSL)を探求しています。
提案手法では, 属性とオブジェクト間の自己認識機構を利用して, 目に見えるものから見えないものまで, より優れた一般化を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:11:29Z) - HOMOE: A Memory-Based and Composition-Aware Framework for Zero-Shot
Learning with Hopfield Network and Soft Mixture of Experts [25.930021907054797]
そこで本稿では,現代ホップフィールドネットワークとエキスパートの混合を併用した新しいフレームワークを提案し,これまでに見つからなかったオブジェクトの合成を分類する。
提案手法は,MIT-StatesやUT-Zapposなど,いくつかのベンチマークにおいてSOTA性能を実現する。
論文 参考訳(メタデータ) (2023-11-23T07:32:20Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Prompting Language-Informed Distribution for Compositional Zero-Shot Learning [73.49852821602057]
合成ゼロショット学習(CZSL)タスクは、目に見えない合成視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - ProCC: Progressive Cross-primitive Compatibility for Open-World
Compositional Zero-Shot Learning [29.591615811894265]
Open-World Composal Zero-shot Learning (OW-CZSL) は、コンポジション空間に先立って、画像中の状態とオブジェクトプリミティブの新規なコンポジションを認識することを目的としている。
本稿では,OW-CZSLタスクの学習過程を模倣する,Progressive Cross-primitive Compatibility (ProCC) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T10:09:46Z) - Learning Graph Embeddings for Open World Compositional Zero-Shot
Learning [47.09665742252187]
コンポジションゼロショット学習(CZSL)は、トレーニング中に見られる状態とオブジェクトの視覚的プリミティブの見えない構成を認識することを目的としている。
Co-CGE(Compositional Cosine Graph Embeddings)を提案する。
Co-CGEは、グラフ畳み込みニューラルネットワークを介して状態、オブジェクトおよびそれらの組成間の依存性をモデル化する。
論文 参考訳(メタデータ) (2021-05-03T17:08:21Z) - Open World Compositional Zero-Shot Learning [47.09665742252187]
構成ゼロショット学習(CZSL)は、訓練中に見えない状態オブジェクトの合成を認識する必要がある。
我々はオープンワールドの環境で活動しており、そこでは検索スペースには多数の未知の合成が含まれている。
論文 参考訳(メタデータ) (2021-01-29T14:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。