論文の概要: Visual-LiDAR Odometry and Mapping with Monocular Scale Correction and
Motion Compensation
- arxiv url: http://arxiv.org/abs/2304.08978v1
- Date: Tue, 18 Apr 2023 13:20:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 14:40:49.070401
- Title: Visual-LiDAR Odometry and Mapping with Monocular Scale Correction and
Motion Compensation
- Title(参考訳): モノクルスケール補正と運動補償による視覚-LiDARオドメトリーとマッピング
- Authors: Hanyu Cai, Ni Ou and Junzheng Wang
- Abstract要約: 低ドリフト特性を有する新しい視覚-LiDARオドメトリーおよびマッピング法を提案する。
提案手法は,ORB-SLAM と A-LOAM の2つの一般的な手法に基づく。
- 参考スコア(独自算出の注目度): 0.7734726150561089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel visual-LiDAR odometry and mapping method with
low-drift characteristics. The proposed method is based on two popular
approaches, ORB-SLAM and A-LOAM, with monocular scale correction and
visual-assisted LiDAR motion compensation modifications. The scale corrector
calculates the proportion between the depth of image keypoints recovered by
triangulation and that provided by LiDAR, using an outlier rejection process
for accuracy improvement. Concerning LiDAR motion compensation, the visual
odometry approach gives the initial guesses of LiDAR motions for better
performance. This methodology is not only applicable to high-resolution LiDAR
but can also adapt to low-resolution LiDAR. To evaluate the proposed SLAM
system's robustness and accuracy, we conducted experiments on the KITTI
Odometry and S3E datasets. Experimental results illustrate that our method
significantly outperforms standalone ORB-SLAM2 and A-LOAM. Furthermore,
regarding the accuracy of visual odometry with scale correction, our method
performs similarly to the stereo-mode ORB-SLAM2.
- Abstract(参考訳): 本稿では,低ドリフト特性を有する新しい視覚-LiDARオドメトリーとマッピング手法を提案する。
提案手法は,単眼スケール補正と視覚支援lidar運動補償による2つのアプローチ(orb-slamとa-loam)に基づいている。
スケール補正器は、三角測量により回収された画像キーポイントの深さとLiDARによって提供される画像キーポイントの深さの比率を、精度向上のためにオフリヤ拒絶法を用いて算出する。
LiDARの運動補償に関して、視覚的オドメトリー法は、LiDARの運動の初期推定値を与える。
この手法は高分解能LiDARだけでなく、低分解能LiDARにも適用可能である。
提案したSLAMシステムのロバスト性と精度を評価するため,KITTIオドメトリーとS3Eデータセットの実験を行った。
実験の結果,orb-slam2 と a-loam を有意に上回った。
さらに,スケール補正による視力計測の精度は,ステレオモードORB-SLAM2と同様である。
関連論文リスト
- LiVisSfM: Accurate and Robust Structure-from-Motion with LiDAR and Visual Cues [7.911698650147302]
LiVisSfMは、LiDARとビジュアルキューを完全に組み合わせたSfMベースの再構築システムである。
本稿では,LiDARのフレーム登録を革新的に行うLiDAR-visual SfM法を提案する。
論文 参考訳(メタデータ) (2024-10-29T16:41:56Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Superresolving optical ruler based on spatial mode demultiplexing for systems evolving under Brownian motion [0.0]
任意の相対輝度を持つ2つの弱非コヒーレント源系の中心のブラウン運動が適応SPADE測定精度限界に及ぼす影響について検討した。
レイリーの呪いはそのようなシナリオに存在するが、SPADE測定は完全な直接撮像より優れている。
論文 参考訳(メタデータ) (2024-07-18T17:23:14Z) - OSPC: Online Sequential Photometric Calibration [0.0]
測光キャリブレーションは多くのコンピュータビジョンアプリケーションに必須である。
逐次推定手法を用いて,測光パラメータの解法を提案する。
論文 参考訳(メタデータ) (2023-05-28T09:44:58Z) - A Tightly Coupled LiDAR-IMU Odometry through Iterated Point-Level
Undistortion [10.399676936364527]
Scan undistortionは、高ダイナミック環境におけるLiDARオドメトリーの鍵となるモジュールである。
繰り返し点レベルの歪みに対処するLiDAR-IMUオドメトリーの最適化を提案する。
論文 参考訳(メタデータ) (2022-09-25T15:48:42Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - End-To-End Optimization of LiDAR Beam Configuration for 3D Object
Detection and Localization [87.56144220508587]
与えられたアプリケーションに対するLiDARビーム構成の最適化を学ぶために、新しい経路を取る。
ビーム構成を自動的に最適化する強化学習に基づく学習最適化フレームワークを提案する。
本手法は低解像度(低コスト)のLiDARが必要な場合に特に有用である。
論文 参考訳(メタデータ) (2022-01-11T09:46:31Z) - Pushing the Envelope of Rotation Averaging for Visual SLAM [69.7375052440794]
視覚SLAMシステムのための新しい最適化バックボーンを提案する。
従来の単分子SLAMシステムの精度, 効率, 堅牢性を向上させるために, 平均化を活用している。
我々のアプローチは、公開ベンチマークの最先端技術に対して、同等の精度で最大10倍高速に表示することができる。
論文 参考訳(メタデータ) (2020-11-02T18:02:26Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。