論文の概要: CoPa-SG: Dense Scene Graphs with Parametric and Proto-Relations
- arxiv url: http://arxiv.org/abs/2506.21357v1
- Date: Thu, 26 Jun 2025 15:09:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.153123
- Title: CoPa-SG: Dense Scene Graphs with Parametric and Proto-Relations
- Title(参考訳): CoPa-SG:パラメトリックおよびプロトレーショナルな高精細なシーングラフ
- Authors: Julian Lorenz, Mrunmai Phatak, Robin Schön, Katja Ludwig, Nico Hörmann, Annemarie Friedrich, Rainer Lienhart,
- Abstract要約: 合成シーングラフデータセットであるCoPa-SGについて述べる。
また、シーングラフの2つの新しい基本概念であるパラメトリックとプロトレーションも導入する。
我々は、新しい関係型をダウンストリームアプリケーションに統合して、計画と推論機能を強化する方法について実証する。
- 参考スコア(独自算出の注目度): 11.603320972814778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 2D scene graphs provide a structural and explainable framework for scene understanding. However, current work still struggles with the lack of accurate scene graph data. To overcome this data bottleneck, we present CoPa-SG, a synthetic scene graph dataset with highly precise ground truth and exhaustive relation annotations between all objects. Moreover, we introduce parametric and proto-relations, two new fundamental concepts for scene graphs. The former provides a much more fine-grained representation than its traditional counterpart by enriching relations with additional parameters such as angles or distances. The latter encodes hypothetical relations in a scene graph and describes how relations would form if new objects are placed in the scene. Using CoPa-SG, we compare the performance of various scene graph generation models. We demonstrate how our new relation types can be integrated in downstream applications to enhance planning and reasoning capabilities.
- Abstract(参考訳): 2Dシーングラフは、シーン理解のための構造的で説明可能なフレームワークを提供する。
しかし、現在の作業は、正確なシーングラフデータの欠如に苦慮している。
このようなデータボトルネックを克服するため,我々は,高精度な地上真実と全オブジェクト間の包括的な関係アノテーションを備えた合成シーングラフデータセットであるCoPa-SGを提案する。
さらに、シーングラフの2つの新しい基本概念であるパラメトリックおよびプロトレーションを導入する。
前者は、角度や距離といった追加のパラメータと関係を豊かにすることにより、従来のものよりもはるかにきめ細かな表現を提供する。
後者は、シーングラフに仮説的関係をエンコードし、新しいオブジェクトがシーンに配置された場合、どのように関係が形成されるかを記述する。
CoPa-SGを用いて,様々なシーングラフ生成モデルの性能を比較した。
我々は、新しい関係型をダウンストリームアプリケーションに統合して、計画と推論機能を強化する方法について実証する。
関連論文リスト
- FDSG: Forecasting Dynamic Scene Graphs [41.18167591493808]
本稿では,将来的なエンティティラベル,バウンディングボックス,および未観測フレームの関係を予測する新しいフレームワークを提案する。
時間アグリゲーションモジュールは、予測情報と観測情報とをクロスアテンションを介して統合することにより、予測をさらに洗練する。
Action Genomeの実験は、FDSGが動的シーングラフ生成、シーングラフ予測、シーングラフ予測において最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2025-06-02T09:46:22Z) - Joint Generative Modeling of Scene Graphs and Images via Diffusion
Models [37.788957749123725]
共同シーングラフ - 画像生成という,新しい生成タスクを提案する。
本稿では,隣接行列と不均一なノードとエッジ属性を併用した新しい拡散モデルDiffuseSGを提案する。
グラフ変換器をデノイザとし、DiffuseSGは連続空間におけるシーングラフ表現を連続的にデノイズし、最終表現を識別してクリーンなシーングラフを生成する。
論文 参考訳(メタデータ) (2024-01-02T10:10:29Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - SPAN: Learning Similarity between Scene Graphs and Images with Transformers [29.582313604112336]
本稿では,シーングラフと画像の類似性を計測するScene graPh-imAge coNtrastive learning framework, SPANを提案する。
本稿では,シーングラフを構造的エンコーディングを伴うシーケンスに変換する新しいグラフシリアライズ手法を提案する。
論文 参考訳(メタデータ) (2023-04-02T18:13:36Z) - Location-Free Scene Graph Generation [45.366540803729386]
シーングラフ生成(SGG)は視覚的理解タスクであり、シーンをエンティティのグラフとして記述し、互いに関連付けることを目的としている。
既存の作業は、バウンディングボックスやセグメンテーションマスクといった形で位置ラベルに依存しており、アノテーションのコストが増加し、データセットの拡張が制限されている。
我々は、この依存関係を破り、位置のないシーングラフ生成(LF-SGG)を導入する。
本課題は, 空間的局所化を明示的に計算することなく, 実体のインスタンスと関係性を予測することを目的とする。
論文 参考訳(メタデータ) (2023-03-20T08:57:45Z) - Scene Graph Modification as Incremental Structure Expanding [61.84291817776118]
本研究では,既存のシーングラフを自然言語クエリに基づいて更新する方法を学習するために,シーングラフ修正(SGM)に注目した。
インクリメンタル構造拡張(ISE)の導入によるグラフ拡張タスクとしてのSGM
既存のデータセットよりも複雑なクエリと大きなシーングラフを含む、挑戦的なデータセットを構築します。
論文 参考訳(メタデータ) (2022-09-15T16:26:14Z) - Iterative Scene Graph Generation [55.893695946885174]
シーングラフ生成は、オブジェクトエンティティとその対応する相互作用述語を所定の画像(またはビデオ)で識別する。
シーングラフ生成への既存のアプローチは、推定イテレーションの実現を可能にするために、関節分布の特定の因子化を前提としている。
本稿では,この制限に対処する新しいフレームワークを提案するとともに,画像に動的条件付けを導入する。
論文 参考訳(メタデータ) (2022-07-27T10:37:29Z) - Graph-to-3D: End-to-End Generation and Manipulation of 3D Scenes Using
Scene Graphs [85.54212143154986]
制御可能なシーン合成は、基本的な仕様を満たす3D情報を生成することで構成される。
シーングラフは、オブジェクト(ノード)とオブジェクト間の関係(エッジ)からなるシーンの表現である
本稿では,シーングラフから形状を直接エンドツーエンドに生成する手法を提案する。
論文 参考訳(メタデータ) (2021-08-19T17:59:07Z) - Unconditional Scene Graph Generation [72.53624470737712]
我々はラベル付きおよび有向グラフ上の確率分布を学習できるSceneGraphGenと呼ばれる深層自己回帰モデルを開発した。
SceneGraphGenによって生成されたシーングラフは多様であり、実世界のシーンのセマンティックなパターンに従う。
論文 参考訳(メタデータ) (2021-08-12T17:57:16Z) - Bridging Knowledge Graphs to Generate Scene Graphs [49.69377653925448]
本稿では,2つのグラフ間の情報伝達を反復的に行う新しいグラフベースニューラルネットワークを提案する。
我々のグラフブリッジネットワークであるGB-Netは、エッジとノードを連続的に推論し、相互接続されたシーンとコモンセンスグラフのリッチでヘテロジニアスな構造を同時に活用し、洗練する。
論文 参考訳(メタデータ) (2020-01-07T23:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。