論文の概要: OA-SLAM: Leveraging Objects for Camera Relocalization in Visual SLAM
- arxiv url: http://arxiv.org/abs/2209.08338v1
- Date: Sat, 17 Sep 2022 14:20:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:01:10.014015
- Title: OA-SLAM: Leveraging Objects for Camera Relocalization in Visual SLAM
- Title(参考訳): oa-slam: visual slamのカメラ再ローカライズにオブジェクトを活用する
- Authors: Matthieu Zins, Gilles Simon, Marie-Odile Berger
- Abstract要約: オブジェクトの主な利点は、その高レベルなセマンティクスと識別能力にあることを示す。
実験により,古典的手法が失敗する視点から,カメラを再局在化できることが判明した。
私たちのコードとテストデータはgitlab.inria.fr/tangram/oa-slamでリリースされます。
- 参考スコア(独自算出の注目度): 2.016317500787292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we explore the use of objects in Simultaneous Localization and
Mapping in unseen worlds and propose an object-aided system (OA-SLAM). More
precisely, we show that, compared to low-level points, the major benefit of
objects lies in their higher-level semantic and discriminating power. Points,
on the contrary, have a better spatial localization accuracy than the generic
coarse models used to represent objects (cuboid or ellipsoid). We show that
combining points and objects is of great interest to address the problem of
camera pose recovery. Our main contributions are: (1) we improve the
relocalization ability of a SLAM system using high-level object landmarks; (2)
we build an automatic system, capable of identifying, tracking and
reconstructing objects with 3D ellipsoids; (3) we show that object-based
localization can be used to reinitialize or resume camera tracking. Our fully
automatic system allows on-the-fly object mapping and enhanced pose tracking
recovery, which we think, can significantly benefit to the AR community. Our
experiments show that the camera can be relocalized from viewpoints where
classical methods fail. We demonstrate that this localization allows a SLAM
system to continue working despite a tracking loss, which can happen frequently
with an uninitiated user. Our code and test data are released at
gitlab.inria.fr/tangram/oa-slam.
- Abstract(参考訳): そこで本研究では,未確認世界の同時局所化とマッピングにおけるオブジェクトの利用について検討し,オブジェクト支援システム(OA-SLAM)を提案する。
より正確には、低レベルな点と比較して、オブジェクトの主な利点は、その高レベルな意味と識別力にあることを示します。
一方、点は対象(立方体または楕円体)を表すために使われる一般的な粗いモデルよりも空間的局所化精度が高い。
カメラポーズ回復の問題に対処するためには,ポイントとオブジェクトを組み合わせることが大きな関心事であることを示す。
主な貢献は,(1)高レベルなオブジェクトランドマークを用いたSLAMシステムの再ローカライズ能力の向上,(2)3次元楕円体を用いたオブジェクトの識別・追跡・再構成が可能な自動システムの構築,(3)カメラ追跡の開始・再開にオブジェクトベースのローカライズを使用できることを示すことである。
私たちの完全に自動化されたシステムは、オンザフライのオブジェクトマッピングとポーズトラッキングのリカバリを可能にします。
実験では,古典的手法が失敗する視点からカメラを再局在化できることを示した。
このローカライズによって、slamシステムがトラッキング損失を被っても動作し続けることが可能となり、非開始ユーザでも頻繁に発生することを実証する。
コードとテストデータはgitlab.inria.fr/tangram/oa-slamでリリースしています。
関連論文リスト
- VOOM: Robust Visual Object Odometry and Mapping using Hierarchical
Landmarks [19.789761641342043]
本稿では,ビジュアルオブジェクトのオドメトリとマッピングフレームワーク VOOM を提案する。
粗い方法で階層的なランドマークとして、高レベルのオブジェクトと低レベルのポイントを使用します。
VOOMはオブジェクト指向SLAMと特徴点SLAMシステムの両方をローカライゼーションで上回る。
論文 参考訳(メタデータ) (2024-02-21T08:22:46Z) - Semantic Object-level Modeling for Robust Visual Camera Relocalization [14.998133272060695]
本稿では,オブジェクトの楕円形表現のためのオブジェクトレベルの自動ボクセルモデリング手法を提案する。
これらのモジュールはすべて、視覚的SLAMシステムに完全に介在している。
論文 参考訳(メタデータ) (2024-02-10T13:39:44Z) - Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - TwistSLAM++: Fusing multiple modalities for accurate dynamic semantic
SLAM [0.0]
TwistSLAM++は、ステレオ画像とLiDAR情報を融合するセマンティックでダイナミックなSLAMシステムである。
従来のベンチマークでは,マルチモーダル情報に基づく融合手法によりオブジェクト追跡の精度が向上していることが示されている。
論文 参考訳(メタデータ) (2022-09-16T12:28:21Z) - Visual-Inertial Multi-Instance Dynamic SLAM with Object-level
Relocalisation [14.302118093865849]
密結合型ビジュアル・慣性オブジェクトレベルのマルチインスタンス動的SLAMシステムを提案する。
カメラのポーズ、速度、IMUバイアスを強く最適化し、環境の高密度な3D再構成オブジェクトレベルマップを構築することができる。
論文 参考訳(メタデータ) (2022-08-08T17:13:24Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - DSP-SLAM: Object Oriented SLAM with Deep Shape Priors [16.867669408751507]
対象物に対する高密度3次元モデルのリッチで正確な関節マップを構築するオブジェクト指向SLAMシステムを提案する。
DSP-SLAMは特徴ベースのSLAMシステムによって再構築された3Dポイントクラウドを入力として取り込む。
本評価では,近年の深層構造復元法に対して,物体の姿勢と形状の復元が改善したことを示す。
論文 参考訳(メタデータ) (2021-08-21T10:00:12Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。