論文の概要: D-InLoc++: Indoor Localization in Dynamic Environments
- arxiv url: http://arxiv.org/abs/2209.10185v1
- Date: Wed, 21 Sep 2022 08:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 16:26:29.139787
- Title: D-InLoc++: Indoor Localization in Dynamic Environments
- Title(参考訳): D-InLoc++: 動的環境における屋内ローカライゼーション
- Authors: Martina Dubenova, Anna Zderadickova, Ondrej Kafka, Tomas Pajdla,
Michal Polic
- Abstract要約: 移動物体には非無視的局所化誤差が組み込まれており,6自由度 (6DoF) がより頑健に作用することを示す新しい手法が提案されている。
動的オブジェクトのマスクは、相対的なポーズ推定ステップと、カメラポーズの提案の最終ソートで使用される。
- 参考スコア(独自算出の注目度): 2.9398911304923447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most state-of-the-art localization algorithms rely on robust relative pose
estimation and geometry verification to obtain moving object agnostic camera
poses in complex indoor environments. However, this approach is prone to
mistakes if a scene contains repetitive structures, e.g., desks, tables, boxes,
or moving people. We show that the movable objects incorporate non-negligible
localization error and present a new straightforward method to predict the
six-degree-of-freedom (6DoF) pose more robustly. We equipped the localization
pipeline InLoc with real-time instance segmentation network YOLACT++. The masks
of dynamic objects are employed in the relative pose estimation step and in the
final sorting of camera pose proposal. At first, we filter out the matches
laying on masks of the dynamic objects. Second, we skip the comparison of query
and synthetic images on the area related to the moving object. This procedure
leads to a more robust localization. Lastly, we describe and improve the
mistakes caused by gradient-based comparison between synthetic and query images
and publish a new pipeline for simulation of environments with movable objects
from the Matterport scans. All the codes are available on
github.com/dubenma/D-InLocpp .
- Abstract(参考訳): ほとんどの最先端のローカライゼーションアルゴリズムは、複雑な屋内環境での移動物体非依存カメラのポーズを得るためにロバストな相対ポーズ推定と幾何検証に依存している。
しかし、このアプローチは、例えば机、テーブル、箱、移動中の人々のような反復的な構造を含む場合、ミスを犯しやすい。
移動物体には非無視的局所化誤差が組み込まれており,6自由度 (6DoF) がより頑健に作用することを示す。
実時間インスタンスセグメンテーションネットワークYOLACT++にローカライゼーションパイプラインInLocを組み込んだ。
動的オブジェクトのマスクは、相対的なポーズ推定ステップと、カメラポーズの提案の最終ソートで使用される。
まず、動的オブジェクトのマスクの上に横たわるマッチをフィルターアウトします。
第2に、移動物体に関連する領域におけるクエリと合成画像の比較を省略する。
この手順はより堅牢な局所化につながる。
最後に,合成画像と問合せ画像の勾配に基づく比較による誤りを記述・改善し,matterportスキャンから移動物体を用いた環境シミュレーションのための新しいパイプラインを公開する。
すべてのコードはgithub.com/dubenma/D-InLocppで利用可能である。
関連論文リスト
- V3D-SLAM: Robust RGB-D SLAM in Dynamic Environments with 3D Semantic Geometry Voting [1.3493547928462395]
動体とカメラのポーズの相関関係から,高度にダイナミックな環境下での同時位置決めとマッピング(SLAM)は困難である。
2つの軽量再評価段階を経て移動物体を除去するロバストな手法 V3D-SLAM を提案する。
TUM RGB-Dベンチマーク実験により,直近のSLAM法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-10-15T21:08:08Z) - Multi-Model 3D Registration: Finding Multiple Moving Objects in
Cluttered Point Clouds [23.923838486208524]
マルチモデル3D登録問題(Multi-model 3D registration)のバリエーションについて検討する。
マルチモデル登録問題では、異なるポーズでオブジェクトの集合を撮影する2点の雲が与えられる。
私たちは、すべてのオブジェクトが2点の雲の間を移動する様子を同時に再構築したいと考えています。
論文 参考訳(メタデータ) (2024-02-16T18:01:43Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Robust Change Detection Based on Neural Descriptor Fields [53.111397800478294]
我々は、部分的に重なり合う観測結果とノイズのある局所化結果に頑健なオブジェクトレベルのオンライン変化検出手法を開発した。
形状符号の類似性を利用して物体を連想させ, 局所的な物体近傍の空間配置を比較することにより, 観測重複や局所雑音に対する頑健性を示す。
論文 参考訳(メタデータ) (2022-08-01T17:45:36Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - TwistSLAM: Constrained SLAM in Dynamic Environment [0.0]
本稿では,シーン内の動的オブジェクトをトラッキングできる意味的・動的・ステレオSLAMシステムTwistSLAMを提案する。
我々のアルゴリズムは、それらの意味クラスに応じて点の集合を生成する。
環境の静的な部分を使って、カメラをしっかりとローカライズし、残りのオブジェクトを追跡する。
論文 参考訳(メタデータ) (2022-02-24T22:08:45Z) - Combining Local and Global Pose Estimation for Precise Tracking of
Similar Objects [2.861848675707602]
類似・非テクスチャオブジェクトに対する多目的6D検出・追跡パイプラインを提案する。
合成画像のみを訓練した新しいネットワークアーキテクチャは、複数のオブジェクトの同時ポーズ推定を可能にする。
建設現場における実際のAR支援アプリケーションにおいて,システムがどのように利用できるかを示す。
論文 参考訳(メタデータ) (2022-01-31T14:36:57Z) - TSDF++: A Multi-Object Formulation for Dynamic Object Tracking and
Reconstruction [57.1209039399599]
我々は,シーン全体とその中のすべてのオブジェクトに対して,単一のボリュームを維持できるマップ表現を提案する。
複数の動的オブジェクト追跡および再構成シナリオにおいて,本表現は,近接して移動する他のオブジェクトによって一時的にオクルードされても,表面の正確な再構成を維持できる。
提案したTSDF++の定式化を公開合成データセット上で評価し,標準のTSDFマップ表現と比較した場合の閉塞面の復元性を示す。
論文 参考訳(メタデータ) (2021-05-16T16:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。