論文の概要: 3D VSG: Long-term Semantic Scene Change Prediction through 3D Variable
Scene Graphs
- arxiv url: http://arxiv.org/abs/2209.07896v1
- Date: Fri, 16 Sep 2022 12:41:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 13:27:43.905313
- Title: 3D VSG: Long-term Semantic Scene Change Prediction through 3D Variable
Scene Graphs
- Title(参考訳): 3d vsg: 3d可変シーングラフによる長期意味的シーン変化予測
- Authors: Samuel Looper, Javier Rodriguez-Puigvert, Roland Siegwart, Cesar
Cadena, and Lukas Schmid
- Abstract要約: セマンティックシーンの変動度推定のタスクを形式化する。
対象物の位置の変化、意味状態の変化、シーン全体の構成の3つの主な種類を識別する。
そこで本研究では,VSGの多様性を教師付き方式で推定する新しい手法であるDeltaVSGを提案する。
- 参考スコア(独自算出の注目度): 29.898086255614484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous applications require robots to operate in environments shared with
other agents such as humans or other robots. However, such shared scenes are
typically subject to different kinds of long-term semantic scene changes. The
ability to model and predict such changes is thus crucial for robot autonomy.
In this work, we formalize the task of semantic scene variability estimation
and identify three main varieties of semantic scene change: changes in the
position of an object, its semantic state, or the composition of a scene as a
whole. To represent this variability, we propose the Variable Scene Graph
(VSG), which augments existing 3D Scene Graph (SG) representations with the
variability attribute, representing the likelihood of discrete long-term change
events. We present a novel method, DeltaVSG, to estimate the variability of
VSGs in a supervised fashion. We evaluate our method on the 3RScan long-term
dataset, showing notable improvements in this novel task over existing
approaches. Our method DeltaVSG achieves a precision of 72.2% and recall of
66.8%, often mimicking human intuition about how indoor scenes change over
time. We further show the utility of VSG predictions in the task of active
robotic change detection, speeding up task completion by 62.4% compared to a
scene-change-unaware planner. We make our code available as open-source.
- Abstract(参考訳): 多くのアプリケーションは、人間や他のロボットのような他のエージェントと共有された環境でロボットを操作する必要がある。
しかし、このような共有シーンは、通常、様々な長期的意味的なシーンの変化を伴っている。
このような変化をモデル化し予測する能力は、ロボットの自律性にとって不可欠である。
本研究では,意味シーンの変動推定のタスクを定式化し,対象の位置の変化,意味状態,シーン全体の構成という,意味シーンの変化の3つの主な種類を同定する。
この変動性を表すために,既存の3次元シーングラフ(SG)表現を可変属性で拡張し,離散的な長期変化イベントの可能性を示す可変シーングラフ(VSG)を提案する。
そこで本研究では,VSGの多様性を教師付き方式で推定する新しい手法であるDeltaVSGを提案する。
提案手法を3RScanの長期データセット上で評価した結果,既存の手法に比べて,この新たな課題に顕著な改善が見られた。
我々の方法DeltaVSGは72.2%の精度で66.8%のリコールを達成し、室内のシーンが時間とともにどのように変化するかという人間の直感を模倣することが多い。
さらに,ロボット変化検出タスクにおけるvsg予測の有用性を示し,シーン変化を意識したプランナーと比較してタスク完了を62.4%高速化した。
コードをオープンソースとして公開しています。
関連論文リスト
- Next Best Sense: Guiding Vision and Touch with FisherRF for 3D Gaussian Splatting [27.45827655042124]
3Dガウススプレイティングを用いたロボットマニピュレータの能動的次ベストビューとタッチ選択のためのフレームワーク(3DGS)を提案する。
我々はまず,新しい意味深度アライメント法により,数発の3DGSの性能を向上する。
次に、3DGSの次のベストビュー選択方法であるFisherRFを拡張して、奥行きの不確実性に基づいたビューとタッチポーズを選択する。
論文 参考訳(メタデータ) (2024-10-07T01:24:39Z) - 3D scene generation from scene graphs and self-attention [51.49886604454926]
本稿では,シーングラフとフロアプランから3次元シーンを合成する条件付き変分オートエンコーダ(cVAE)モデルを提案する。
我々は、シーン内のオブジェクト間の高レベルな関係をキャプチャするために、自己注意層の特性を利用する。
論文 参考訳(メタデータ) (2024-04-02T12:26:17Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Living Scenes: Multi-object Relocalization and Reconstruction in Changing 3D Environments [20.890476387720483]
MoREは進化する環境における多目的再局在と再構成のための新しいアプローチである。
これらの環境を「生きたシーン」とみなし、異なる時点のスキャンをオブジェクトインスタンスの3次元再構成に変換する問題について考察する。
論文 参考訳(メタデータ) (2023-12-14T17:09:57Z) - Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - SG-Bot: Object Rearrangement via Coarse-to-Fine Robotic Imagination on Scene Graphs [81.15889805560333]
本稿では,新しいアレンジメントフレームワークであるSG-Botを紹介する。
SG-Botは軽量でリアルタイムでユーザ制御可能な特性を実証する。
実験の結果、SG-Botはライバルよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-21T15:54:33Z) - Modeling Dynamic Environments with Scene Graph Memory [46.587536843634055]
本稿では,部分的に観測可能な動的グラフ上でのリンク予測という,新しいタイプのリンク予測問題を提案する。
私たちのグラフは、部屋とオブジェクトがノードであり、それらの関係がエッジにエンコードされるシーンの表現です。
エージェントの蓄積した観測結果をキャプチャする新しい状態表現 -- SGM (Scene Graph Memory) を提案する。
家庭で一般的に見られるセマンティックなパターンに従って,多様な動的グラフを生成する新しいベンチマークであるDynamic House Simulatorで,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-05-27T17:39:38Z) - SGAligner : 3D Scene Alignment with Scene Graphs [84.01002998166145]
3Dシーングラフの構築は、いくつかの具体的AIアプリケーションのためのシーン表現のトピックとして登場した。
オーバーラップ可能な3次元シーングラフのペアをゼロから部分的に整列させるという基本的な問題に着目する。
そこで我々はSGAlignerを提案する。SGAlignerは3次元シーングラフのペアを組合わせるための最初の方法であり、その組込みシナリオに対して堅牢である。
論文 参考訳(メタデータ) (2023-04-28T14:39:22Z) - Graph-to-3D: End-to-End Generation and Manipulation of 3D Scenes Using
Scene Graphs [85.54212143154986]
制御可能なシーン合成は、基本的な仕様を満たす3D情報を生成することで構成される。
シーングラフは、オブジェクト(ノード)とオブジェクト間の関係(エッジ)からなるシーンの表現である
本稿では,シーングラフから形状を直接エンドツーエンドに生成する手法を提案する。
論文 参考訳(メタデータ) (2021-08-19T17:59:07Z) - 3D Dynamic Scene Graphs: Actionable Spatial Perception with Places,
Objects, and Humans [27.747241700017728]
動作可能な空間知覚のための統一表現として,3次元ダイナミックシーングラフを提案する。
3D Dynamic Scene Graphsは、計画と意思決定、人間とロボットのインタラクション、長期的な自律性、シーン予測に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-15T00:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。