論文の概要: ObVi-SLAM: Long-Term Object-Visual SLAM
- arxiv url: http://arxiv.org/abs/2309.15268v2
- Date: Sun, 22 Oct 2023 21:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 07:21:16.323797
- Title: ObVi-SLAM: Long-Term Object-Visual SLAM
- Title(参考訳): ObVi-SLAM: 長期的なオブジェクト指向SLAM
- Authors: Amanda Adkins, Taijing Chen, Joydeep Biswas
- Abstract要約: 既存のビジュアルSLAMアプローチは、環境変化に対して堅牢でない低レベルの特徴記述子に依存している。
ObVi-SLAMは、高品質の短期視覚計測に低レベルの視覚的特徴を使用する。
ObVi-SLAMは永続オブジェクトの不確実性を認識した長期マップを構築し、デプロイ毎に更新する。
- 参考スコア(独自算出の注目度): 8.085619727014292
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Robots responsible for tasks over long time scales must be able to localize
consistently and scalably amid geometric, viewpoint, and appearance changes.
Existing visual SLAM approaches rely on low-level feature descriptors that are
not robust to such environmental changes and result in large map sizes that
scale poorly over long-term deployments. In contrast, object detections are
robust to environmental variations and lead to more compact representations,
but most object-based SLAM systems target short-term indoor deployments with
close objects. In this paper, we introduce ObVi-SLAM to overcome these
challenges by leveraging the best of both approaches. ObVi-SLAM uses low-level
visual features for high-quality short-term visual odometry; and to ensure
global, long-term consistency, ObVi-SLAM builds an uncertainty-aware long-term
map of persistent objects and updates it after every deployment. By evaluating
ObVi-SLAM on data from 16 deployment sessions spanning different weather and
lighting conditions, we empirically show that ObVi-SLAM generates accurate
localization estimates consistent over long-time scales in spite of varying
appearance conditions.
- Abstract(参考訳): 長時間の作業に責任を持つロボットは、幾何学的、視点的、外観的変化の中で一貫してスカラー化できなければならない。
既存のvisual slamのアプローチは、このような環境変化に対して堅牢でない低レベルの機能記述子に依存しており、長期的にはスケールしない大きなマップサイズになる。
対照的に、オブジェクト検出は環境変動に対して堅牢であり、よりコンパクトな表現をもたらすが、ほとんどのオブジェクトベースのSLAMシステムは、クローゼットオブジェクトによる短期的な屋内配置をターゲットとしている。
本稿では,両手法のベストを活かし,これらの課題を克服するためにobvi-slamを提案する。
ObVi-SLAMは、高品質な短期視覚計測のために低レベルの視覚的特徴を使用し、グローバルで長期的な一貫性を確保するために、永続オブジェクトの不確実性を認識した長期マップを構築し、デプロイ毎に更新する。
気象条件や照明条件の異なる16回の配備セッションのデータに基づいてObVi-SLAMを評価することにより,ObVi-SLAMは外観条件が異なるにもかかわらず,長時間のスケールで正確な位置推定値を生成することを実証的に示す。
関連論文リスト
- DK-SLAM: Monocular Visual SLAM with Deep Keypoint Learning, Tracking and Loop-Closing [13.50980509878613]
公開されているデータセットに対する実験的評価は、DK-SLAMが従来のSLAMシステムと学習ベースのSLAMシステムより優れていることを示している。
本システムでは,キーポイント抽出ネットワークの学習を最適化するために,モデル非依存メタラーニング(MAML)戦略を採用している。
累積的な位置決め誤差を軽減するため、DK-SLAMはループ閉鎖検出にバイナリ機能を利用する新しいオンライン学習モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-01-17T12:08:30Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Global-to-Local Modeling for Video-based 3D Human Pose and Shape
Estimation [53.04781510348416]
フレーム内精度とフレーム間スムーズさにより,映像に基づく3次元人間のポーズと形状推定を評価する。
エンドツーエンドフレームワークGLoT(Global-to-Local Transformer)における長期的・短期的相関のモデル化を構造的に分離することを提案する。
我々のGLoTは、一般的なベンチマーク(3DPW、MPI-INF-3DHP、Human3.6M)において、最も低いモデルパラメータを持つ従来の最先端の手法を上回る。
論文 参考訳(メタデータ) (2023-03-26T14:57:49Z) - NeuSE: Neural SE(3)-Equivariant Embedding for Consistent Spatial
Understanding with Objects [53.111397800478294]
本稿では,ニューラルSE(3)-等価なオブジェクトの埋め込みであるNeuSEを紹介する。
NeuSE は完全なオブジェクトモデルのためのコンパクトな点クラウドサロゲートとして機能する。
提案するSLAMパラダイムは,物体形状やポーズ特性にNeuSEを用いて,通常のSLAMシステムと独立に,あるいは連携して動作することができる。
論文 参考訳(メタデータ) (2023-03-13T17:30:43Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - Det-SLAM: A semantic visual SLAM for highly dynamic scenes using
Detectron2 [0.0]
本研究では,視覚的SLAMシステムであるORB-SLAM3とディテクトロン2を組み合わせて,Det-SLAMシステムを提案する。
Det-SLAMは従来の動的SLAMシステムよりも弾力性が高く、動的屋内シナリオにおけるカメラ姿勢推定誤差を低減できる。
論文 参考訳(メタデータ) (2022-10-01T13:25:11Z) - TwistSLAM++: Fusing multiple modalities for accurate dynamic semantic
SLAM [0.0]
TwistSLAM++は、ステレオ画像とLiDAR情報を融合するセマンティックでダイナミックなSLAMシステムである。
従来のベンチマークでは,マルチモーダル情報に基づく融合手法によりオブジェクト追跡の精度が向上していることが示されている。
論文 参考訳(メタデータ) (2022-09-16T12:28:21Z) - PLD-SLAM: A Real-Time Visual SLAM Using Points and Line Segments in
Dynamic Scenes [0.0]
本稿では,点と線の特徴を組み合わせたリアルタイムステレオ間接視覚SLAMシステム PLD-SLAMを提案する。
また,適切な選択と効率的なループ閉鎖検出を実現するため,グローバルグレー類似度(GGS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-22T07:40:00Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z) - Accurate Visual-Inertial SLAM by Feature Re-identification [4.263022790692934]
空間時空間感度サブグローバルマップから既存の特徴を再同定し,効率的なドリフトレスSLAM法を提案する。
本手法は67.3%,87.5%の絶対翻訳誤差を最小の計算コストで削減する。
論文 参考訳(メタデータ) (2021-02-26T12:54:33Z) - Learning Long-term Visual Dynamics with Region Proposal Interaction
Networks [75.06423516419862]
オブジェクト間およびオブジェクト環境間の相互作用を長距離にわたってキャプチャするオブジェクト表現を構築します。
単純だが効果的なオブジェクト表現のおかげで、我々の手法は先行手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-08-05T17:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。