論文の概要: On Leveraging Variational Graph Embeddings for Open World Compositional
Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2204.11848v1
- Date: Sat, 23 Apr 2022 13:30:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 12:33:42.996550
- Title: On Leveraging Variational Graph Embeddings for Open World Compositional
Zero-Shot Learning
- Title(参考訳): open world compositional zero-shot learningにおける変分グラフ埋め込みの活用について
- Authors: Muhammad Umer Anwaar, Zhihui Pan, Martin Kleinsteuber
- Abstract要約: 我々は、原始概念、すなわち対象と状態の合成を、その新しい構成でさえゼロショット分類できる方法で学習する。
基本概念の変分埋め込みを学習するための構成変分グラフオートエンコーダ(CVGAE)アプローチを提案する。
- 参考スコア(独自算出の注目度): 3.9348884623092517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans are able to identify and categorize novel compositions of known
concepts. The task in Compositional Zero-Shot learning (CZSL) is to learn
composition of primitive concepts, i.e. objects and states, in such a way that
even their novel compositions can be zero-shot classified. In this work, we do
not assume any prior knowledge on the feasibility of novel compositions
i.e.open-world setting, where infeasible compositions dominate the search
space. We propose a Compositional Variational Graph Autoencoder (CVGAE)
approach for learning the variational embeddings of the primitive concepts
(nodes) as well as feasibility of their compositions (via edges). Such
modelling makes CVGAE scalable to real-world application scenarios. This is in
contrast to SOTA method, CGE, which is computationally very expensive. e.g.for
benchmark C-GQA dataset, CGE requires 3.94 x 10^5 nodes, whereas CVGAE requires
only 1323 nodes. We learn a mapping of the graph and image embeddings onto a
common embedding space. CVGAE adopts a deep metric learning approach and learns
a similarity metric in this space via bi-directional contrastive loss between
projected graph and image embeddings. We validate the effectiveness of our
approach on three benchmark datasets.We also demonstrate via an image retrieval
task that the representations learnt by CVGAE are better suited for
compositional generalization.
- Abstract(参考訳): 人間は既知の概念の新しい構成を識別し分類することができる。
構成ゼロショット学習(czsl: compositional zero-shot learning)のタスクは、原始概念、すなわち、オブジェクトと状態の合成を学習することである。
本研究では,新規合成の実現可能性,すなわち探索空間を不可避な合成が支配するオープンワールド設定について,事前の知識を仮定しない。
本稿では,プリミティブ概念(ノード)の変動埋め込みとそれらの構成(エッジ)の実現可能性を学ぶための構成的変分グラフオートエンコーダ(cvgae)アプローチを提案する。
このようなモデリングはCVGAEを現実世界のアプリケーションシナリオにスケーラブルにする。
これは計算的に非常に高価なSOTA法であるCGEとは対照的である。
例えば、ベンチマークC-GQAデータセットでは、CGEは3.94 x 10^5ノード、CVGAEは1323ノードしか必要としない。
グラフのマッピングとイメージの埋め込みを共通の埋め込み空間に学習する。
cvgaeはディープメトリック学習アプローチを採用し、投影されたグラフと画像埋め込みの双方向のコントラスト損失を通じて、この分野における類似度メトリックを学習する。
提案手法の有効性を3つのベンチマークデータセットで検証し,CVGAEで学習した表現が合成一般化に適していることを示す。
関連論文リスト
- Visual Representation Learning Guided By Multi-modal Prior Knowledge [29.954639194410586]
分布シフト下での一般化を改善するために,知識誘導型視覚表現学習(KGV)を提案する。
我々は,1)階層的および関連性を持つ知識グラフ(KG),2)KGで意味的に表現された視覚要素の合成画像を生成する。
KGVは全ての実験のベースラインよりも高い精度とデータ効率を示す。
論文 参考訳(メタデータ) (2024-10-21T13:06:38Z) - Transformer-based Image Generation from Scene Graphs [11.443097632746763]
グラフ構造化シーン記述は、生成した画像の合成を制御するために、生成モデルで効率的に使用することができる。
従来のアプローチは、グラフ畳み込みネットワークと、レイアウト予測と画像生成のための逆法の組み合わせに基づいている。
グラフ情報の符号化にマルチヘッドアテンションを用いることにより,サンプルデータの品質が向上することを示す。
論文 参考訳(メタデータ) (2023-03-08T14:54:51Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Representing Videos as Discriminative Sub-graphs for Action Recognition [165.54738402505194]
ビデオ中の各アクションの識別パターンを表現およびエンコードするためのサブグラフの新たな設計を提案する。
時空グラフとクラスタを各スケールでコンパクトなサブグラフに新たに構築するMUlti-scale Sub-Earn Ling (MUSLE) フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-11T16:15:25Z) - Learning Graph Embeddings for Open World Compositional Zero-Shot
Learning [47.09665742252187]
コンポジションゼロショット学習(CZSL)は、トレーニング中に見られる状態とオブジェクトの視覚的プリミティブの見えない構成を認識することを目的としている。
Co-CGE(Compositional Cosine Graph Embeddings)を提案する。
Co-CGEは、グラフ畳み込みニューラルネットワークを介して状態、オブジェクトおよびそれらの組成間の依存性をモデル化する。
論文 参考訳(メタデータ) (2021-05-03T17:08:21Z) - Spatial-spectral Hyperspectral Image Classification via Multiple Random
Anchor Graphs Ensemble Learning [88.60285937702304]
本稿では,複数のランダムアンカーグラフアンサンブル学習(RAGE)を用いた空間スペクトルHSI分類手法を提案する。
まず、各選択されたバンドのより記述的な特徴を抽出し、局所的な構造と領域の微妙な変化を保存するローカルバイナリパターンを採用する。
次に,アンカーグラフの構成に適応隣接代入を導入し,計算複雑性を低減した。
論文 参考訳(メタデータ) (2021-03-25T09:31:41Z) - Learning Graph Embeddings for Compositional Zero-shot Learning [73.80007492964951]
合成ゼロショット学習では、観察された視覚的原始状態の見えない構成を認識することが目的である。
本稿では,画像特徴と視覚的プリミティブの潜在表現をエンドツーエンドに学習するCGEという新しいグラフ定式化を提案する。
概念間のセマンティクスを符号化する共同互換性を学習することにより、WordNetのような外部知識ベースに頼ることなく、構成を見えないように一般化することができる。
論文 参考訳(メタデータ) (2021-02-03T10:11:03Z) - Zero-Shot Learning with Common Sense Knowledge Graphs [10.721717005752405]
本稿では,共通感覚知識グラフからベクトル空間にノードを埋め込み,クラス表現を学習することを提案する。
クラス表現を生成するための新しいトランスフォーマーグラフ畳み込みネットワーク(TrGCN)を備えた汎用フレームワークであるZSL-KGを紹介する。
以上の結果から,ZSL-KGは既存のWordNetベースの手法を6つのゼロショットベンチマークデータセットのうち5つで改善していることがわかった。
論文 参考訳(メタデータ) (2020-06-18T17:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。