論文の概要: ViRel: Unsupervised Visual Relations Discovery with Graph-level Analogy
- arxiv url: http://arxiv.org/abs/2207.00590v1
- Date: Mon, 4 Jul 2022 16:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 13:04:07.654326
- Title: ViRel: Unsupervised Visual Relations Discovery with Graph-level Analogy
- Title(参考訳): ViRel: グラフレベルのアナロジーによる教師なしのビジュアルリレーション発見
- Authors: Daniel Zeng, Tailin Wu, Jure Leskovec
- Abstract要約: ViRelは、グラフレベルのアナロジーを用いた視覚関係の教師なし発見と学習のための方法である。
本研究では,関係分類において95%以上の精度を達成できることを示す。
さらに、より複雑な関係構造を持つ未確認タスクに一般化する。
- 参考スコア(独自算出の注目度): 65.5580334698777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual relations form the basis of understanding our compositional world, as
relationships between visual objects capture key information in a scene. It is
then advantageous to learn relations automatically from the data, as learning
with predefined labels cannot capture all possible relations. However, current
relation learning methods typically require supervision, and are not designed
to generalize to scenes with more complicated relational structures than those
seen during training. Here, we introduce ViRel, a method for unsupervised
discovery and learning of Visual Relations with graph-level analogy. In a
setting where scenes within a task share the same underlying relational
subgraph structure, our learning method of contrasting isomorphic and
non-isomorphic graphs discovers the relations across tasks in an unsupervised
manner. Once the relations are learned, ViRel can then retrieve the shared
relational graph structure for each task by parsing the predicted relational
structure. Using a dataset based on grid-world and the Abstract Reasoning
Corpus, we show that our method achieves above 95% accuracy in relation
classification, discovers the relation graph structure for most tasks, and
further generalizes to unseen tasks with more complicated relational
structures.
- Abstract(参考訳): 視覚的関係は、視覚的オブジェクト間の関係がシーン内の重要な情報をキャプチャするので、構成的世界を理解する基盤となる。
事前に定義されたラベルによる学習は、すべての可能な関係をキャプチャできないため、データから関係を自動的に学習することは有利である。
しかし、現在の関係学習法は一般的には監督が必要であり、訓練中に見られるものよりも複雑な関係構造を持つシーンに一般化するようには設計されていない。
本稿では,グラフレベルのアナロジーを用いた視覚関係の教師なし発見と学習手法であるViRelを紹介する。
タスク内のシーンが同じ基盤となる関係グラフ構造を共有する場合、同型グラフと非同型グラフを対比する学習方法は、教師なしの方法でタスク間の関係を発見する。
一度関係が学習されると、ViRelは予測された関係構造を解析することで、各タスクの共有関係グラフ構造を検索できる。
グリッドワールドと抽象推論コーパスに基づくデータセットを用いて、関係分類において95%以上の精度を実現し、ほとんどのタスクに対する関係グラフ構造を発見し、さらに複雑な関係構造を持つ未確認タスクに一般化することを示す。
関連論文リスト
- Relational Deep Learning: Graph Representation Learning on Relational
Databases [69.7008152388055]
複数のテーブルにまたがって配置されたデータを学ぶために、エンドツーエンドの表現アプローチを導入する。
メッセージパッシンググラフニューラルネットワークは、自動的にグラフを学習して、すべてのデータ入力を活用する表現を抽出する。
論文 参考訳(メタデータ) (2023-12-07T18:51:41Z) - Learning Hierarchical Relational Representations through Relational Convolutions [2.5322020135765464]
本稿では、より複雑な関係性の特徴を捉える計算機構を備えたニューラルネットワークである「リレーショナル畳み込みネットワーク」を紹介する。
このフレームワークの重要なコンポーネントは、グラフレットフィルタを畳み込み、オブジェクトのグループ内の関係パターンをキャプチャする新しい操作である。
アーキテクチャのモチベーションと詳細、およびリレーショナル畳み込みネットワークが階層構造を持つリレーショナルタスクをモデル化するための効果的なフレームワークを提供するための一連の実験を示す。
論文 参考訳(メタデータ) (2023-10-05T01:22:50Z) - One-shot Scene Graph Generation [130.57405850346836]
ワンショットシーングラフ生成タスクに対して,複数の構造化知識(関係知識知識)を提案する。
提案手法は既存の最先端手法よりも大きなマージンで優れる。
論文 参考訳(メタデータ) (2022-02-22T11:32:59Z) - Learning to Compose Visual Relations [100.45138490076866]
我々は,各関係を非正規化密度(エネルギーベースモデル)として表現することを提案する。
このような分解を分解することで、複数の関係を持つシーンをより忠実に生成・編集できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:51:29Z) - Scenes and Surroundings: Scene Graph Generation using Relation
Transformer [13.146732454123326]
この研究は、リレーショナルトランスと呼ばれる新しいローカルコンテキスト対応アーキテクチャを提案する。
階層的マルチヘッドアテンションに基づくアプローチは、オブジェクト間のコンテキスト依存を効率的に捕捉し、それらの関係を予測する。
最先端のアプローチと比較して、私たちは全体として、textbf4.85%の改善を達成しました。
論文 参考訳(メタデータ) (2021-07-12T14:22:20Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - Towards Interpretable Multi-Task Learning Using Bilevel Programming [18.293397644865454]
解釈可能なマルチタスク学習は、学習したモデルの予測性能に基づいて、タスク関係のスパースグラフを学習するものとして表現することができる。
一般化性能を犠牲にすることなく、学習したモデルの解釈性や、合成データと実データとの関係を実証的に改善する方法を示す。
論文 参考訳(メタデータ) (2020-09-11T15:04:27Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Structured Query-Based Image Retrieval Using Scene Graphs [10.475553340127394]
本稿では,シーングラフの埋め込みを画像検索のアプローチの基盤として利用する手法を提案する。
長い尾を持つCOCO-Stuffデータセットに見られる低・中頻度のオブジェクトでも高いリコールを実現することができる。
論文 参考訳(メタデータ) (2020-05-13T22:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。