論文の概要: Exploiting Edge-Oriented Reasoning for 3D Point-based Scene Graph
Analysis
- arxiv url: http://arxiv.org/abs/2103.05558v1
- Date: Tue, 9 Mar 2021 17:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:54:44.644828
- Title: Exploiting Edge-Oriented Reasoning for 3D Point-based Scene Graph
Analysis
- Title(参考訳): 3次元ポイントベースシーングラフ解析のためのエッジ指向推論
- Authors: Chaoyi Zhang, Jianhui Yu, Yang Song, Weidong Cai
- Abstract要約: 認識と推論を橋渡しする3Dポイントベースのシーングラフ生成フレームワークを提案する。
推論段階では、EDGE指向のグラフ畳み込みネットワークが作成され、多次元エッジ機能を利用する。
実験結果は、シーングラフ生成研究に有望なエッジ指向推論効果を示す。
- 参考スコア(独自算出の注目度): 21.920148546359016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene understanding is a critical problem in computer vision. In this paper,
we propose a 3D point-based scene graph generation ($\mathbf{SGG_{point}}$)
framework to effectively bridge perception and reasoning to achieve scene
understanding via three sequential stages, namely scene graph construction,
reasoning, and inference. Within the reasoning stage, an EDGE-oriented Graph
Convolutional Network ($\texttt{EdgeGCN}$) is created to exploit
multi-dimensional edge features for explicit relationship modeling, together
with the exploration of two associated twinning interaction mechanisms between
nodes and edges for the independent evolution of scene graph representations.
Overall, our integrated $\mathbf{SGG_{point}}$ framework is established to seek
and infer scene structures of interest from both real-world and synthetic 3D
point-based scenes. Our experimental results show promising edge-oriented
reasoning effects on scene graph generation studies. We also demonstrate our
method advantage on several traditional graph representation learning benchmark
datasets, including the node-wise classification on citation networks and
whole-graph recognition problems for molecular analysis.
- Abstract(参考訳): シーン理解はコンピュータビジョンにおける重要な問題である。
本稿では,3つの段階(シーングラフ構築,推論,推論)を通してシーン理解を実現するために,知覚と推論を効果的に橋渡しする3Dポイントベースのシーングラフ生成(「\mathbf{SG_{point}}$」)フレームワークを提案する。
推論段階では、EDGE指向グラフ畳み込みネットワーク($\texttt{EdgeGCN}$)が、シーングラフ表現の独立した進化のためのノードとエッジ間の2つの関連双対相互作用メカニズムの探索とともに、明示的な関係モデリングのための多次元エッジ機能を利用するために作成される。
統合された$\mathbf{SGG_{point}}$フレームワークは、実世界と合成3Dポイントベースの両方のシーンから興味のあるシーン構造を探し出し、推測するために確立されました。
実験結果は、シーングラフ生成研究に有望なエッジ指向推論効果を示す。
また,従来のグラフ表現学習ベンチマークデータセットの利点として,引用ネットワーク上のノードワイズ分類や,分子解析のための全グラフ認識問題などを挙げる。
関連論文リスト
- Multiview Scene Graph [7.460438046915524]
適切なシーン表現は、空間知性の追求の中心である。
未提示画像からマルチビューシーングラフ(MSG)を構築することを提案する。
MSGは、場所とオブジェクトノードを相互接続したシーンをトポロジ的に表現する。
論文 参考訳(メタデータ) (2024-10-15T02:04:05Z) - On Support Relations Inference and Scene Hierarchy Graph Construction from Point Cloud in Clustered Environments [3.4535508414601344]
3Dシーンでは、リッチな空間幾何学的・トポロジ的情報はしばしばRGBベースのシーン理解アプローチによって無視される。
本研究では,物体間の関係を推定する場面理解のためのボトムアップ手法を開発した。
論文 参考訳(メタデータ) (2024-04-22T02:42:32Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Semantic Scene Graph Generation Based on an Edge Dual Scene Graph and
Message Passing Neural Network [3.9280441311534653]
シーングラフ生成(SGG)は、画像内のオブジェクト間の関係をキャプチャし、構造化グラフベースの表現を生成する。
既存のSGG法は、詳細な関係を正確に予測する能力に制限がある。
本稿では,エッジデュアルシーングラフ生成(EdgeSGG)と呼ばれるマルチオブジェクト関係のモデリング手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T12:36:52Z) - Incremental 3D Semantic Scene Graph Prediction from RGB Sequences [86.77318031029404]
RGB画像列が与えられたシーンの一貫性のある3Dセマンティックシーングラフをインクリメンタルに構築するリアルタイムフレームワークを提案する。
提案手法は,新たなインクリメンタルエンティティ推定パイプラインとシーングラフ予測ネットワークから構成される。
提案するネットワークは,シーンエンティティから抽出した多視点および幾何学的特徴を用いて,反復的メッセージパッシングを用いた3次元セマンティックシーングラフを推定する。
論文 参考訳(メタデータ) (2023-05-04T11:32:16Z) - Hierarchical Graph Networks for 3D Human Pose Estimation [50.600944798627786]
最近の2次元から3次元の人間のポーズ推定は、人間の骨格のトポロジーによって形成されたグラフ構造を利用する傾向がある。
この骨格トポロジーは体の構造を反映するには小さすぎるため、重度の2次元から3次元のあいまいさに悩まされていると我々は主張する。
本稿では,これらの弱点を克服するために,新しいグラフ畳み込みネットワークアーキテクチャである階層グラフネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T15:09:03Z) - Dense Graph Convolutional Neural Networks on 3D Meshes for 3D Object
Segmentation and Classification [0.0]
本稿では3次元メッシュ上でのグラフ畳み込みニューラルネットワーク(GCN)の設計について述べる。
メッシュの顔を基本処理単位とし、各ノードが顔に対応するグラフとして3Dメッシュを表現する。
論文 参考訳(メタデータ) (2021-06-30T02:17:16Z) - Joint Deep Multi-Graph Matching and 3D Geometry Learning from
Inhomogeneous 2D Image Collections [57.60094385551773]
非均質な画像コレクションから変形可能な3Dジオメトリモデルを学ぶためのトレーニング可能なフレームワークを提案する。
さらに,2次元画像で表現された物体の3次元形状も取得する。
論文 参考訳(メタデータ) (2021-03-31T17:25:36Z) - SceneGraphFusion: Incremental 3D Scene Graph Prediction from RGB-D
Sequences [76.28527350263012]
rgb-dフレームのシーケンスを与えられた3次元環境から意味的シーングラフを漸進的に構築する手法を提案する。
我々は、グラフニューラルネットワークを用いて、プリミティブシーンコンポーネントからpointnet機能を集約する。
提案手法は,35hzで動作する他の3dセマンティクスおよびパンオプティカルセグメンテーション法と同等の精度で,高いマージンで3dシーングラフ予測手法を上回る。
論文 参考訳(メタデータ) (2021-03-27T13:00:36Z) - Learning 3D Semantic Scene Graphs from 3D Indoor Reconstructions [94.17683799712397]
我々は、グラフ内のシーンのエンティティを整理するデータ構造であるシーングラフに焦点を当てる。
本研究では,シーンの点雲からシーングラフを回帰する学習手法を提案する。
本稿では,3D-3Dおよび2D-3Dマッチングの中間表現としてグラフが機能するドメインに依存しない検索タスクにおける本手法の適用について述べる。
論文 参考訳(メタデータ) (2020-04-08T12:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。