論文の概要: Learning Attention Propagation for Compositional Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2210.11557v1
- Date: Thu, 20 Oct 2022 19:44:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:12:07.847644
- Title: Learning Attention Propagation for Compositional Zero-Shot Learning
- Title(参考訳): 合成ゼロショット学習のための学習注意伝播
- Authors: Muhammad Gul Zain Ali Khan, Muhammad Ferjad Naeem, Luc Van Gool, Alain
Pagani, Didier Stricker, Muhammad Zeshan Afzal
- Abstract要約: コンポジションアテンション・プロパゲード・エンベディング(CAPE)と呼ばれる新しい手法を提案する。
CAPEは、この構造を識別し、それらの間の知識を伝播して、目に見えないすべての構成に対するクラス埋め込みを学ぶ。
提案手法は,3つの公開ベンチマークに対して,新しい最先端のベンチマークを設定するために,従来のベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 71.55375561183523
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Compositional zero-shot learning aims to recognize unseen compositions of
seen visual primitives of object classes and their states. While all primitives
(states and objects) are observable during training in some combination, their
complex interaction makes this task especially hard. For example, wet changes
the visual appearance of a dog very differently from a bicycle. Furthermore, we
argue that relationships between compositions go beyond shared states or
objects. A cluttered office can contain a busy table; even though these
compositions don't share a state or object, the presence of a busy table can
guide the presence of a cluttered office. We propose a novel method called
Compositional Attention Propagated Embedding (CAPE) as a solution. The key
intuition to our method is that a rich dependency structure exists between
compositions arising from complex interactions of primitives in addition to
other dependencies between compositions. CAPE learns to identify this structure
and propagates knowledge between them to learn class embedding for all seen and
unseen compositions. In the challenging generalized compositional zero-shot
setting, we show that our method outperforms previous baselines to set a new
state-of-the-art on three publicly available benchmarks.
- Abstract(参考訳): compositional zero-shot learningは、オブジェクトクラスとその状態の見えない視覚プリミティブの構成を認識することを目的としている。
すべてのプリミティブ(状態とオブジェクト)は、何らかの組み合わせでトレーニング中に観測可能であるが、それらの複雑な相互作用は、このタスクを特に難しくする。
例えば、ウェットは、自転車とは全く異なる見た目の犬の外観を変える。
さらに、コンポジション間の関係は共有状態やオブジェクトを超えていると論じる。
散らかったオフィスは、忙しいテーブルを含むことができ、これらのコンポジションは状態やオブジェクトを共有していないが、忙しいテーブルの存在は、散らかったオフィスの存在を導くことができる。
そこで本研究では,CAPE(Compositional Attention Propagated Embedding)という新しい手法を提案する。
本手法の重要な直観は,合成間の他の依存関係に加えて,プリミティブの複雑な相互作用から生じる構成間のリッチな依存関係構造の存在である。
CAPEは、この構造を識別し、それらの間の知識を伝播して、目に見えないすべての構成に対するクラス埋め込みを学ぶ。
提案手法は, 従来のベースラインよりも優れており, 3つの公開ベンチマーク上で新しい最先端のベンチマークを設定できることを示す。
関連論文リスト
- Cross-composition Feature Disentanglement for Compositional Zero-shot Learning [49.919635694894204]
合成ゼロショット学習(CZSL)において、プリミティブ(属性とオブジェクト)の視覚的特徴の歪みは例外的な結果を示した。
本稿では,複数のプリミティブ・シェアリング・コンポジションを入力とし,これらのコンポジションにまたがって一般化されるような不整合プリミティブ・コンポジションを制約するクロス・コンポジション・コンストラクション・ディエンタングルメントの解を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:23:09Z) - Im-Promptu: In-Context Composition from Image Prompts [10.079743487034762]
視覚刺激の構成可能な要素に対して,類似推論がコンテキスト内合成を可能にするか否かを検討する。
我々はIm-Promptuを使って、ベクトル表現、パッチ表現、オブジェクトスロットなど、さまざまなレベルの構成性のエージェントを訓練する。
本実験は,学習された構成規則を未知の領域に拡張する非構成的表現を用いて,外挿能力と構成性の程度とのトレードオフを明らかにする。
論文 参考訳(メタデータ) (2023-05-26T21:10:11Z) - Siamese Contrastive Embedding Network for Compositional Zero-Shot
Learning [76.13542095170911]
合成ゼロショット学習(CZSL)は、学習中に目に見える状態と対象から形成される見えない構成を認識することを目的としている。
本稿では,未知の合成認識のための新しいSiamese Contrastive Embedding Network(SCEN)を提案する。
提案手法は,3つの挑戦的ベンチマークデータセットに対して,最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2022-06-29T09:02:35Z) - Learning to Compose Visual Relations [100.45138490076866]
我々は,各関係を非正規化密度(エネルギーベースモデル)として表現することを提案する。
このような分解を分解することで、複数の関係を持つシーンをより忠実に生成・編集できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:51:29Z) - Constellation: Learning relational abstractions over objects for
compositional imagination [64.99658940906917]
静的な視覚シーンのリレーショナル抽象化を学習するネットワークであるConstellationを紹介する。
この研究は、視覚的関係を明確に表現し、それらを複雑な認知手続きに使用するための第一歩である。
論文 参考訳(メタデータ) (2021-07-23T11:59:40Z) - Learning Graph Embeddings for Compositional Zero-shot Learning [73.80007492964951]
合成ゼロショット学習では、観察された視覚的原始状態の見えない構成を認識することが目的である。
本稿では,画像特徴と視覚的プリミティブの潜在表現をエンドツーエンドに学習するCGEという新しいグラフ定式化を提案する。
概念間のセマンティクスを符号化する共同互換性を学習することにより、WordNetのような外部知識ベースに頼ることなく、構成を見えないように一般化することができる。
論文 参考訳(メタデータ) (2021-02-03T10:11:03Z) - A causal view of compositional zero-shot recognition [42.63916938252048]
人々は既知のコンポーネントの新しい組み合わせである新しい視覚カテゴリーを容易に認識する。
この構成一般化能力は、視覚や言語といった現実世界の領域での学習に不可欠である。
ここでは、因果的考えに基づく構成的一般化のアプローチについて述べる。
論文 参考訳(メタデータ) (2020-06-25T17:51:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。