論文の概要: Edge-Centric Relational Reasoning for 3D Scene Graph Prediction
- arxiv url: http://arxiv.org/abs/2511.15288v1
- Date: Wed, 19 Nov 2025 09:53:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.741091
- Title: Edge-Centric Relational Reasoning for 3D Scene Graph Prediction
- Title(参考訳): 3次元シーングラフ予測のためのエッジ中心関係推論
- Authors: Yanni Ma, Hao Liu, Yulan Guo, Theo Gevers, Martin R. Oswald,
- Abstract要約: 3Dシーングラフ予測は、複雑な3D環境をオブジェクトとそのペア関係からなる構造化グラフに抽象化することを目的としている。
既存のアプローチでは、接続されたオブジェクトノードからメッセージを集約することで、関係エッジ機能を反復的に更新するオブジェクト中心のグラフニューラルネットワークが一般的である。
本稿では,オブジェクト認識融合を用いたリンク誘導エッジ中心関係推論フレームワークを提案する。
- 参考スコア(独自算出の注目度): 74.19580969696898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene graph prediction aims to abstract complex 3D environments into structured graphs consisting of objects and their pairwise relationships. Existing approaches typically adopt object-centric graph neural networks, where relation edge features are iteratively updated by aggregating messages from connected object nodes. However, this design inherently restricts relation representations to pairwise object context, making it difficult to capture high-order relational dependencies that are essential for accurate relation prediction. To address this limitation, we propose a Link-guided Edge-centric relational reasoning framework with Object-aware fusion, namely LEO, which enables progressive reasoning from relation-level context to object-level understanding. Specifically, LEO first predicts potential links between object pairs to suppress irrelevant edges, and then transforms the original scene graph into a line graph where each relation is treated as a node. A line graph neural network is applied to perform edge-centric relational reasoning to capture inter-relation context. The enriched relation features are subsequently integrated into the original object-centric graph to enhance object-level reasoning and improve relation prediction. Our framework is model-agnostic and can be integrated with any existing object-centric method. Experiments on the 3DSSG dataset with two competitive baselines show consistent improvements, highlighting the effectiveness of our edge-to-object reasoning paradigm.
- Abstract(参考訳): 3Dシーングラフ予測は、複雑な3D環境をオブジェクトとそのペア関係からなる構造化グラフに抽象化することを目的としている。
既存のアプローチでは、接続されたオブジェクトノードからメッセージを集約することで、関係エッジ機能を反復的に更新するオブジェクト中心のグラフニューラルネットワークが一般的である。
しかし、この設計は本質的に、関係表現をペアワイズオブジェクトコンテキストに制限しており、正確な関係予測に不可欠な高次関係依存を捉えることは困難である。
この制限に対処するために、リンク誘導エッジ中心のリレーショナル推論フレームワーク、すなわちオブジェクト認識融合(LEO)を提案し、リレーショナルレベルのコンテキストからオブジェクトレベルの理解へのプログレッシブな推論を可能にする。
具体的には、LEOはまずオブジェクトペア間の潜在的なリンクを予測し、無関係なエッジを抑える。
線グラフニューラルネットワークを用いてエッジ中心リレーショナル推論を行い、相互関係のコンテキストをキャプチャする。
リッチリレーション機能はその後、オブジェクトレベルの推論を強化し、関係予測を改善するために、元のオブジェクト中心グラフに統合される。
私たちのフレームワークはモデルに依存しないので、既存のオブジェクト中心のメソッドと統合することができます。
競合する2つのベースラインを持つ3DSSGデータセットの実験は、一貫した改善を示し、エッジ・ツー・オブジェクト推論のパラダイムの有効性を強調した。
関連論文リスト
- Open-Vocabulary Octree-Graph for 3D Scene Understanding [54.11828083068082]
Octree-Graphはオープンな3Dシーン理解のための新しいシーン表現である。
セマンティクスを記憶し、その形状に応じてオブジェクトの占有度を調節するアダプティブ・オクツリー構造を開発する。
論文 参考訳(メタデータ) (2024-11-25T10:14:10Z) - Multi-Scene Generalized Trajectory Global Graph Solver with Composite
Nodes for Multiple Object Tracking [61.69892497726235]
複合ノードメッセージパッシングネットワーク(CoNo-Link)は、超長いフレーム情報を関連付けるためのフレームワークである。
オブジェクトをノードとして扱う従来の方法に加えて、このネットワークは情報インタラクションのためのノードとしてオブジェクトトラジェクトリを革新的に扱う。
我々のモデルは、合成ノードを追加することで、より長い時間スケールでより良い予測を学習することができる。
論文 参考訳(メタデータ) (2023-12-14T14:00:30Z) - Semantic Scene Graph Generation Based on an Edge Dual Scene Graph and
Message Passing Neural Network [3.9280441311534653]
シーングラフ生成(SGG)は、画像内のオブジェクト間の関係をキャプチャし、構造化グラフベースの表現を生成する。
既存のSGG法は、詳細な関係を正確に予測する能力に制限がある。
本稿では,エッジデュアルシーングラフ生成(EdgeSGG)と呼ばれるマルチオブジェクト関係のモデリング手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T12:36:52Z) - Self-Supervised Relation Alignment for Scene Graph Generation [44.3983804479146]
シーングラフ生成性能を改善するために,自己教師付きリレーショナルアライメントの正規化を導入する。
提案されたアライメントは一般的なもので、既存のシーングラフ生成フレームワークと組み合わせることができる。
本稿では,この自己教師付きリレーショナルアライメントと2つのシーングラフ生成アーキテクチャの有効性について述べる。
論文 参考訳(メタデータ) (2023-02-02T20:34:13Z) - Relation Regularized Scene Graph Generation [206.76762860019065]
SGG(Scene Graph Generation)は、検出されたオブジェクトの上に構築され、オブジェクトのペアの視覚的関係を予測する。
本稿では,2つのオブジェクト間の関係を予測できる関係正規化ネットワーク(R2-Net)を提案する。
我々のR2-Netはオブジェクトラベルを効果的に洗練し、シーングラフを生成する。
論文 参考訳(メタデータ) (2022-02-22T11:36:49Z) - Hyper-relationship Learning Network for Scene Graph Generation [95.6796681398668]
本稿では,シーングラフ生成のためのハイパーリレーショナル学習ネットワークHLNを提案する。
我々は最も人気のあるSGGデータセット、すなわちVisual Genomeデータセット上でHLNを評価する。
例えば、提案されたHLNは、関係ごとのリコールを11.3%から13.1%に改善し、画像毎のリコールを19.8%から34.9%に維持する。
論文 参考訳(メタデータ) (2022-02-15T09:26:16Z) - Exploiting Edge-Oriented Reasoning for 3D Point-based Scene Graph
Analysis [21.920148546359016]
認識と推論を橋渡しする3Dポイントベースのシーングラフ生成フレームワークを提案する。
推論段階では、EDGE指向のグラフ畳み込みネットワークが作成され、多次元エッジ機能を利用する。
実験結果は、シーングラフ生成研究に有望なエッジ指向推論効果を示す。
論文 参考訳(メタデータ) (2021-03-09T17:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。