論文の概要: CoPa-SG: Dense Scene Graphs with Parametric and Proto-Relations
- arxiv url: http://arxiv.org/abs/2506.21357v1
- Date: Thu, 26 Jun 2025 15:09:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.153123
- Title: CoPa-SG: Dense Scene Graphs with Parametric and Proto-Relations
- Title(参考訳): CoPa-SG:パラメトリックおよびプロトレーショナルな高精細なシーングラフ
- Authors: Julian Lorenz, Mrunmai Phatak, Robin Schön, Katja Ludwig, Nico Hörmann, Annemarie Friedrich, Rainer Lienhart,
- Abstract要約: 合成シーングラフデータセットであるCoPa-SGについて述べる。
また、シーングラフの2つの新しい基本概念であるパラメトリックとプロトレーションも導入する。
我々は、新しい関係型をダウンストリームアプリケーションに統合して、計画と推論機能を強化する方法について実証する。
- 参考スコア(独自算出の注目度): 11.603320972814778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 2D scene graphs provide a structural and explainable framework for scene understanding. However, current work still struggles with the lack of accurate scene graph data. To overcome this data bottleneck, we present CoPa-SG, a synthetic scene graph dataset with highly precise ground truth and exhaustive relation annotations between all objects. Moreover, we introduce parametric and proto-relations, two new fundamental concepts for scene graphs. The former provides a much more fine-grained representation than its traditional counterpart by enriching relations with additional parameters such as angles or distances. The latter encodes hypothetical relations in a scene graph and describes how relations would form if new objects are placed in the scene. Using CoPa-SG, we compare the performance of various scene graph generation models. We demonstrate how our new relation types can be integrated in downstream applications to enhance planning and reasoning capabilities.
- Abstract(参考訳): 2Dシーングラフは、シーン理解のための構造的で説明可能なフレームワークを提供する。
しかし、現在の作業は、正確なシーングラフデータの欠如に苦慮している。
このようなデータボトルネックを克服するため,我々は,高精度な地上真実と全オブジェクト間の包括的な関係アノテーションを備えた合成シーングラフデータセットであるCoPa-SGを提案する。
さらに、シーングラフの2つの新しい基本概念であるパラメトリックおよびプロトレーションを導入する。
前者は、角度や距離といった追加のパラメータと関係を豊かにすることにより、従来のものよりもはるかにきめ細かな表現を提供する。
後者は、シーングラフに仮説的関係をエンコードし、新しいオブジェクトがシーンに配置された場合、どのように関係が形成されるかを記述する。
CoPa-SGを用いて,様々なシーングラフ生成モデルの性能を比較した。
我々は、新しい関係型をダウンストリームアプリケーションに統合して、計画と推論機能を強化する方法について実証する。
関連論文リスト
- Joint Generative Modeling of Scene Graphs and Images via Diffusion
Models [37.788957749123725]
共同シーングラフ - 画像生成という,新しい生成タスクを提案する。
本稿では,隣接行列と不均一なノードとエッジ属性を併用した新しい拡散モデルDiffuseSGを提案する。
グラフ変換器をデノイザとし、DiffuseSGは連続空間におけるシーングラフ表現を連続的にデノイズし、最終表現を識別してクリーンなシーングラフを生成する。
論文 参考訳(メタデータ) (2024-01-02T10:10:29Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - SPAN: Learning Similarity between Scene Graphs and Images with Transformers [29.582313604112336]
本稿では,シーングラフと画像の類似性を計測するScene graPh-imAge coNtrastive learning framework, SPANを提案する。
本稿では,シーングラフを構造的エンコーディングを伴うシーケンスに変換する新しいグラフシリアライズ手法を提案する。
論文 参考訳(メタデータ) (2023-04-02T18:13:36Z) - Location-Free Scene Graph Generation [45.366540803729386]
シーングラフ生成(SGG)は視覚的理解タスクであり、シーンをエンティティのグラフとして記述し、互いに関連付けることを目的としている。
既存の作業は、バウンディングボックスやセグメンテーションマスクといった形で位置ラベルに依存しており、アノテーションのコストが増加し、データセットの拡張が制限されている。
我々は、この依存関係を破り、位置のないシーングラフ生成(LF-SGG)を導入する。
本課題は, 空間的局所化を明示的に計算することなく, 実体のインスタンスと関係性を予測することを目的とする。
論文 参考訳(メタデータ) (2023-03-20T08:57:45Z) - Scene Graph Modification as Incremental Structure Expanding [61.84291817776118]
本研究では,既存のシーングラフを自然言語クエリに基づいて更新する方法を学習するために,シーングラフ修正(SGM)に注目した。
インクリメンタル構造拡張(ISE)の導入によるグラフ拡張タスクとしてのSGM
既存のデータセットよりも複雑なクエリと大きなシーングラフを含む、挑戦的なデータセットを構築します。
論文 参考訳(メタデータ) (2022-09-15T16:26:14Z) - Unconditional Scene Graph Generation [72.53624470737712]
我々はラベル付きおよび有向グラフ上の確率分布を学習できるSceneGraphGenと呼ばれる深層自己回帰モデルを開発した。
SceneGraphGenによって生成されたシーングラフは多様であり、実世界のシーンのセマンティックなパターンに従う。
論文 参考訳(メタデータ) (2021-08-12T17:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。