論文の概要: S-Graphs+: Real-time Localization and Mapping leveraging Hierarchical
Representations
- arxiv url: http://arxiv.org/abs/2212.11770v3
- Date: Fri, 26 May 2023 09:50:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 22:50:53.992844
- Title: S-Graphs+: Real-time Localization and Mapping leveraging Hierarchical
Representations
- Title(参考訳): S-Graphs+:階層表現を利用したリアルタイムローカライゼーションとマッピング
- Authors: Hriday Bavle, Jose Luis Sanchez-Lopez, Muhammad Shaheer, Javier Civera
and Holger Voos
- Abstract要約: S-Graphs+は,(1)ロボットのポーズを推定したポーズ層,(2)壁面を表す壁層,(3)壁面の集合を含む部屋層,(4)部屋を所定の階内に集める床層を含む,新しい4層係数グラフである。
上記のグラフは、ロボットのポーズとそのマップの堅牢で正確な推定値を得るために、リアルタイムで最適化され、同時に環境の高レベル情報を構築し、活用する。
- 参考スコア(独自算出の注目度): 9.13466172688693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present an evolved version of Situational Graphs, which
jointly models in a single optimizable factor graph (1) a pose graph, as a set
of robot keyframes comprising associated measurements and robot poses, and (2)
a 3D scene graph, as a high-level representation of the environment that
encodes its different geometric elements with semantic attributes and the
relational information between them.
Specifically, our S-Graphs+ is a novel four-layered factor graph that
includes: (1) a keyframes layer with robot pose estimates, (2) a walls layer
representing wall surfaces, (3) a rooms layer encompassing sets of wall planes,
and (4) a floors layer gathering the rooms within a given floor level. The
above graph is optimized in real-time to obtain a robust and accurate estimate
of the robots pose and its map, simultaneously constructing and leveraging
high-level information of the environment. To extract this high-level
information, we present novel room and floor segmentation algorithms utilizing
the mapped wall planes and free-space clusters.
We tested S-Graphs+ on multiple datasets, including simulated and real data
of indoor environments from varying construction sites, and on a real public
dataset of several indoor office areas. On average over our datasets, S-Graphs+
outperforms the accuracy of the second-best method by a margin of 10.67%, while
extending the robot situational awareness by a richer scene model. Moreover, we
make the software available as a docker file.
- Abstract(参考訳): 本稿では,1つの最適化可能な因子グラフと1つのポーズグラフを関連する測定とロボットのポーズからなるロボットキーフレームの集合として,そして2つの3次元シーングラフを,意味的属性とそれらの間の関係情報をエンコードする環境の高レベルな表現として,共同でモデル化した状況グラフの進化版を提案する。
具体的には,(1)ロボットのポーズを推定したキーフレーム層,(2)壁面を表す壁層,(3)壁面を包含する部屋層,(4)床層を所定の階内に集める床層からなる,新しい4層係数グラフである。
上記のグラフはリアルタイムで最適化され、ロボットのポーズとその地図のロバストで正確な推定を行い、同時に環境の高レベル情報を構築し、活用する。
このハイレベルな情報を抽出するために,マップされた壁面と自由空間クラスタを用いた新しい部屋と床のセグメンテーションアルゴリズムを提案する。
各種建設現場からの室内環境のシミュレーションデータや実際の屋内オフィスエリアの公開データセットなど,複数のデータセットでS-Graphs+を検証した。
我々のデータセットを平均して、S-Graphs+は、よりリッチなシーンモデルによってロボットの状況認識を拡張しながら、第2のベストメソッドの精度を10.67%向上させる。
さらに、ソフトウェアをdockerファイルとして利用できるようにする。
関連論文リスト
- Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Faster Optimization in S-Graphs Exploiting Hierarchy [8.17925295907622]
冗長なロボットのポーズを余剰にすることでグラフサイズを削減するため,階層構造を利用したSグラフの改良版を提案する。
ベースラインに対する計算時間を39.81%削減しながら,ベースラインと同等の精度を示す。
論文 参考訳(メタデータ) (2023-08-22T07:35:15Z) - SGAligner : 3D Scene Alignment with Scene Graphs [84.01002998166145]
3Dシーングラフの構築は、いくつかの具体的AIアプリケーションのためのシーン表現のトピックとして登場した。
オーバーラップ可能な3次元シーングラフのペアをゼロから部分的に整列させるという基本的な問題に着目する。
そこで我々はSGAlignerを提案する。SGAlignerは3次元シーングラフのペアを組合わせるための最初の方法であり、その組込みシナリオに対して堅牢である。
論文 参考訳(メタデータ) (2023-04-28T14:39:22Z) - Graph-based Global Robot Localization Informing Situational Graphs with
Architectural Graphs [8.514420632209811]
建物の計画図を建築図(A-Graph)と表現するものに変換する手法を開発する。
ロボットが環境内で動き始めると、その環境について何も知らないと仮定し、その環境のオンライン状況グラフ表現(S-Graph)を推定する。
本研究では,ロボットセンサから推定したSグラフと建築計画から抽出したAグラフを関連付けるために,新しいグラフ間マッチング法を開発した。
論文 参考訳(メタデータ) (2023-03-03T16:48:38Z) - Advanced Situational Graphs for Robot Navigation in Structured Indoor
Environments [9.13466172688693]
本稿では,5層最適化可能なグラフからなる状況グラフ(S-Graphs+)の高度なバージョンを提案する。
S-Graphs+は、効率よく部屋情報を抽出するS-Graphsよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T08:30:05Z) - Situational Graphs for Robot Navigation in Structured Indoor
Environments [9.13466172688693]
環境を表す1つのグラフからなるリアルタイムオンライン構築状況グラフ(S-Graphs)を提示する。
本手法は3次元LiDARスキャンから抽出した計測値と平面面を用いて3層Sグラフをリアルタイムに構築・最適化する。
提案手法は,ロボットのポーズ推定の最先端結果を示すだけでなく,環境の計量意味・トポロジーモデルにも寄与する。
論文 参考訳(メタデータ) (2022-02-24T16:59:06Z) - (2.5+1)D Spatio-Temporal Scene Graphs for Video Question Answering [54.436179346454516]
ビデオは基本的に、3D空間で発生するイベントの2D"ビュー"である。
ビデオ内の時間的情報の流れをよりよく捉えるために,(2.5+1)Dシーングラフ表現を提案する。
論文 参考訳(メタデータ) (2022-02-18T15:58:54Z) - Hierarchical Graph Networks for 3D Human Pose Estimation [50.600944798627786]
最近の2次元から3次元の人間のポーズ推定は、人間の骨格のトポロジーによって形成されたグラフ構造を利用する傾向がある。
この骨格トポロジーは体の構造を反映するには小さすぎるため、重度の2次元から3次元のあいまいさに悩まされていると我々は主張する。
本稿では,これらの弱点を克服するために,新しいグラフ畳み込みネットワークアーキテクチャである階層グラフネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T15:09:03Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - Learning 3D Semantic Scene Graphs from 3D Indoor Reconstructions [94.17683799712397]
我々は、グラフ内のシーンのエンティティを整理するデータ構造であるシーングラフに焦点を当てる。
本研究では,シーンの点雲からシーングラフを回帰する学習手法を提案する。
本稿では,3D-3Dおよび2D-3Dマッチングの中間表現としてグラフが機能するドメインに依存しない検索タスクにおける本手法の適用について述べる。
論文 参考訳(メタデータ) (2020-04-08T12:25:25Z) - 3D Dynamic Scene Graphs: Actionable Spatial Perception with Places,
Objects, and Humans [27.747241700017728]
動作可能な空間知覚のための統一表現として,3次元ダイナミックシーングラフを提案する。
3D Dynamic Scene Graphsは、計画と意思決定、人間とロボットのインタラクション、長期的な自律性、シーン予測に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-15T00:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。