論文の概要: SR-LIVO: LiDAR-Inertial-Visual Odometry and Mapping with Sweep
Reconstruction
- arxiv url: http://arxiv.org/abs/2312.16800v1
- Date: Thu, 28 Dec 2023 03:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 17:46:39.871569
- Title: SR-LIVO: LiDAR-Inertial-Visual Odometry and Mapping with Sweep
Reconstruction
- Title(参考訳): sr-livo:lidar-inertial-visual odometryとスイープ再構成によるマッピング
- Authors: Zikang Yuan, Jie Deng, Ruiye Ming, Fengtian Lang and Xin Yang
- Abstract要約: SR-LIVOは、画像のタイムスタンプと再構成されたスイープを整列させるスイープ再構成を用いた、先進的で斬新なLIV-SLAMシステムである。
この分野でのコミュニティ開発に貢献するために、ソースコードをリリースしました。
- 参考スコア(独自算出の注目度): 5.479262483638832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing LiDAR-inertial-visual odometry and mapping (LIV-SLAM) systems mainly
utilize the LiDAR-inertial odometry (LIO) module for structure reconstruction
and the visual-inertial odometry (VIO) module for color rendering. However, the
accuracy of VIO is often compromised by photometric changes, weak textures and
motion blur, unlike the more robust LIO. This paper introduces SR-LIVO, an
advanced and novel LIV-SLAM system employing sweep reconstruction to align
reconstructed sweeps with image timestamps. This allows the LIO module to
accurately determine states at all imaging moments, enhancing pose accuracy and
processing efficiency. Experimental results on two public datasets demonstrate
that: 1) our SRLIVO outperforms existing state-of-the-art LIV-SLAM systems in
both pose accuracy and time efficiency; 2) our LIO-based pose estimation prove
more accurate than VIO-based ones in several mainstream LIV-SLAM systems
(including ours). We have released our source code to contribute to the
community development in this field.
- Abstract(参考訳): 既存のLiDAR-inertial-visual odometry and Mapping (LIV-SLAM)システムは主に構造再構成のためのLiDAR-inertial odometry (LIO)モジュールと色レンダリングのためのVIOモジュールを使用している。
しかし、VIOの精度は、より堅牢なIOとは異なり、測光的な変化、弱いテクスチャ、動きのぼかしによってしばしば損なわれる。
本稿では, 画像のタイムスタンプと再構成されたスイープを整列させるためにスイープ再構成を用いた, 高度で斬新なLIV-SLAMシステムSR-LIVOを紹介する。
これにより、LIOモジュールはすべての画像モーメントの状態を正確に決定し、ポーズ精度と処理効率を高めることができる。
2つの公開データセットの実験結果が示す。
1) SRLIVOは既存のLIV-SLAMシステムよりも精度と時間効率が優れている。
2) メインストリームのLIV-SLAMシステムでは, LIOに基づくポーズ推定の方がVIOに基づくポーズ推定よりも精度が高いことが判明した。
この分野のコミュニティ開発に貢献するために、ソースコードをリリースしました。
関連論文リスト
- LiVisSfM: Accurate and Robust Structure-from-Motion with LiDAR and Visual Cues [7.911698650147302]
LiVisSfMは、LiDARとビジュアルキューを完全に組み合わせたSfMベースの再構築システムである。
本稿では,LiDARのフレーム登録を革新的に行うLiDAR-visual SfM法を提案する。
論文 参考訳(メタデータ) (2024-10-29T16:41:56Z) - ECMamba: Consolidating Selective State Space Model with Retinex Guidance for Efficient Multiple Exposure Correction [48.77198487543991]
本稿では,反射率と照明マップの復元を目的とした,二重経路を持つ露出補正のためのMamba(ECMamba)に基づく新しいフレームワークを提案する。
具体的には、Retinex理論を導出し、入力を2つの中間空間にマッピングできるRetinex推定器を訓練する。
我々は、ECMMのコア演算子として、Retinex情報(Retinex-SS2D)で案内される新しい2次元選択状態空間層を開発する。
論文 参考訳(メタデータ) (2024-10-28T21:02:46Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - FAST-LIVO2: Fast, Direct LiDAR-Inertial-Visual Odometry [28.606325312582218]
我々は,SLAMタスクにおける高精度かつ堅牢な状態推定を実現するために,高速かつ直接的LiDAR慣性・視覚的オドメトリーフレームワークであるFAST-LIVO2を提案する。
FAST-LIVO2はIMU、LiDAR、画像計測を逐次更新戦略で効率的に融合する。
本稿では,FAST-LIVO2のリアルタイムナビゲーション,空中マッピング,3次元モデルレンダリングの3つの応用例を示す。
論文 参考訳(メタデータ) (2024-08-26T06:01:54Z) - Simultaneous Map and Object Reconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、最近の新しいビュー合成法から着想を得て、大域的な最適化として再構築問題を提起する。
連続動作の慎重なモデリングにより, 回転するLiDARセンサの回転シャッター効果を補うことができる。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - Visual-LiDAR Odometry and Mapping with Monocular Scale Correction and
Visual Bootstrapping [0.7734726150561089]
低ドリフト特性を有する新しい視覚-LiDARオドメトリーおよびマッピング法を提案する。
提案手法は,ORB-SLAM と A-LOAM の2つの一般的な手法に基づく。
ORB-SLAM2 と A-LOAM を比較検討した。
論文 参考訳(メタデータ) (2023-04-18T13:20:33Z) - Learning Detail-Structure Alternative Optimization for Blind
Super-Resolution [69.11604249813304]
そこで我々は,ブラインドSRに先立ってカーネルを曖昧にすることなく,再帰的な詳細構造代替最適化を実現する,有効かつカーネルフリーなネットワークDSSRを提案する。
DSSRでは、細部構造変調モジュール(DSMM)が構築され、画像の詳細と構造の相互作用と協調を利用する。
本手法は既存の手法に対して最先端の手法を実現する。
論文 参考訳(メタデータ) (2022-12-03T14:44:17Z) - R$^3$LIVE++: A Robust, Real-time, Radiance reconstruction package with a
tightly-coupled LiDAR-Inertial-Visual state Estimator [5.972044427549262]
同時ローカライゼーションとマッピング(SLAM)は、自律ロボット(例えば、自動運転車、無人ドローン)、3Dマッピングシステム、AR/VRアプリケーションに不可欠である。
この研究は、R$3$LIVE++と呼ばれる新しいLiDAR-慣性-視覚融合フレームワークを提案した。
論文 参考訳(メタデータ) (2022-09-08T09:26:20Z) - R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual
tightly-coupled state Estimation and mapping package [7.7016529229597035]
R3LIVEは、LiDAR、慣性、および視覚センサーの測定を利用して、堅牢で正確な状態推定を実現する。
R3LIVEは多彩で多彩なシステムであり、様々な応用が可能である。
当社はR3LIVEをオープンしており、コード、ソフトウェアユーティリティ、デバイスの設計がすべて含まれています。
論文 参考訳(メタデータ) (2021-09-10T22:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。