論文の概要: SR-LIVO: LiDAR-Inertial-Visual Odometry and Mapping with Sweep
Reconstruction
- arxiv url: http://arxiv.org/abs/2312.16800v1
- Date: Thu, 28 Dec 2023 03:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 17:46:39.871569
- Title: SR-LIVO: LiDAR-Inertial-Visual Odometry and Mapping with Sweep
Reconstruction
- Title(参考訳): sr-livo:lidar-inertial-visual odometryとスイープ再構成によるマッピング
- Authors: Zikang Yuan, Jie Deng, Ruiye Ming, Fengtian Lang and Xin Yang
- Abstract要約: SR-LIVOは、画像のタイムスタンプと再構成されたスイープを整列させるスイープ再構成を用いた、先進的で斬新なLIV-SLAMシステムである。
この分野でのコミュニティ開発に貢献するために、ソースコードをリリースしました。
- 参考スコア(独自算出の注目度): 5.479262483638832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing LiDAR-inertial-visual odometry and mapping (LIV-SLAM) systems mainly
utilize the LiDAR-inertial odometry (LIO) module for structure reconstruction
and the visual-inertial odometry (VIO) module for color rendering. However, the
accuracy of VIO is often compromised by photometric changes, weak textures and
motion blur, unlike the more robust LIO. This paper introduces SR-LIVO, an
advanced and novel LIV-SLAM system employing sweep reconstruction to align
reconstructed sweeps with image timestamps. This allows the LIO module to
accurately determine states at all imaging moments, enhancing pose accuracy and
processing efficiency. Experimental results on two public datasets demonstrate
that: 1) our SRLIVO outperforms existing state-of-the-art LIV-SLAM systems in
both pose accuracy and time efficiency; 2) our LIO-based pose estimation prove
more accurate than VIO-based ones in several mainstream LIV-SLAM systems
(including ours). We have released our source code to contribute to the
community development in this field.
- Abstract(参考訳): 既存のLiDAR-inertial-visual odometry and Mapping (LIV-SLAM)システムは主に構造再構成のためのLiDAR-inertial odometry (LIO)モジュールと色レンダリングのためのVIOモジュールを使用している。
しかし、VIOの精度は、より堅牢なIOとは異なり、測光的な変化、弱いテクスチャ、動きのぼかしによってしばしば損なわれる。
本稿では, 画像のタイムスタンプと再構成されたスイープを整列させるためにスイープ再構成を用いた, 高度で斬新なLIV-SLAMシステムSR-LIVOを紹介する。
これにより、LIOモジュールはすべての画像モーメントの状態を正確に決定し、ポーズ精度と処理効率を高めることができる。
2つの公開データセットの実験結果が示す。
1) SRLIVOは既存のLIV-SLAMシステムよりも精度と時間効率が優れている。
2) メインストリームのLIV-SLAMシステムでは, LIOに基づくポーズ推定の方がVIOに基づくポーズ推定よりも精度が高いことが判明した。
この分野のコミュニティ開発に貢献するために、ソースコードをリリースしました。
関連論文リスト
- Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - Visual-LiDAR Odometry and Mapping with Monocular Scale Correction and
Visual Bootstrapping [0.7734726150561089]
低ドリフト特性を有する新しい視覚-LiDARオドメトリーおよびマッピング法を提案する。
提案手法は,ORB-SLAM と A-LOAM の2つの一般的な手法に基づく。
ORB-SLAM2 と A-LOAM を比較検討した。
論文 参考訳(メタデータ) (2023-04-18T13:20:33Z) - Learning Detail-Structure Alternative Optimization for Blind
Super-Resolution [69.11604249813304]
そこで我々は,ブラインドSRに先立ってカーネルを曖昧にすることなく,再帰的な詳細構造代替最適化を実現する,有効かつカーネルフリーなネットワークDSSRを提案する。
DSSRでは、細部構造変調モジュール(DSMM)が構築され、画像の詳細と構造の相互作用と協調を利用する。
本手法は既存の手法に対して最先端の手法を実現する。
論文 参考訳(メタデータ) (2022-12-03T14:44:17Z) - R$^3$LIVE++: A Robust, Real-time, Radiance reconstruction package with a
tightly-coupled LiDAR-Inertial-Visual state Estimator [5.972044427549262]
同時ローカライゼーションとマッピング(SLAM)は、自律ロボット(例えば、自動運転車、無人ドローン)、3Dマッピングシステム、AR/VRアプリケーションに不可欠である。
この研究は、R$3$LIVE++と呼ばれる新しいLiDAR-慣性-視覚融合フレームワークを提案した。
論文 参考訳(メタデータ) (2022-09-08T09:26:20Z) - Structure-Preserving Image Super-Resolution [94.16949589128296]
単一画像超解像(SISR)の構造
近年の研究では、フォトリアリスティック画像の復元によるSISRの開発が進められている。
しかし、回収された画像にはいまだ望ましくない構造歪みがある。
論文 参考訳(メタデータ) (2021-09-26T08:48:27Z) - R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual
tightly-coupled state Estimation and mapping package [7.7016529229597035]
R3LIVEは、LiDAR、慣性、および視覚センサーの測定を利用して、堅牢で正確な状態推定を実現する。
R3LIVEは多彩で多彩なシステムであり、様々な応用が可能である。
当社はR3LIVEをオープンしており、コード、ソフトウェアユーティリティ、デバイスの設計がすべて含まれています。
論文 参考訳(メタデータ) (2021-09-10T22:43:59Z) - Accurate Visual-Inertial SLAM by Feature Re-identification [4.263022790692934]
空間時空間感度サブグローバルマップから既存の特徴を再同定し,効率的なドリフトレスSLAM法を提案する。
本手法は67.3%,87.5%の絶対翻訳誤差を最小の計算コストで削減する。
論文 参考訳(メタデータ) (2021-02-26T12:54:33Z) - Two-Stage Single Image Reflection Removal with Reflection-Aware Guidance [78.34235841168031]
シングルイメージリフレクション除去(SIRR)のためのリフレクション・アウェア・ガイダンス(RAGNet)を用いた新しい2段階ネットワークを提案する。
RAGは、(i)観測からの反射の効果を緩和するために、(ii)線形結合仮説から逸脱する効果を緩和するための部分畳み込みにおいてマスクを生成するために用いられる。
5つの一般的なデータセットの実験は、最先端のSIRR法と比較して、RAGNetの量的および質的な優位性を実証している。
論文 参考訳(メタデータ) (2020-12-02T03:14:57Z) - Robust Odometry and Mapping for Multi-LiDAR Systems with Online
Extrinsic Calibration [15.946728828122385]
本稿では,複数のLiDARのロバストかつ同時キャリブレーション,オドメトリー,マッピングを実現するシステムを提案する。
キャリブレーションとSLAMのための10列(全長4.60km)の広範囲な実験により,本手法の性能を検証した。
提案手法は,様々なマルチLiDARセットアップのための完全で堅牢なシステムであることを示す。
論文 参考訳(メタデータ) (2020-10-27T13:51:26Z) - Learning Monocular Visual Odometry via Self-Supervised Long-Term
Modeling [106.15327903038705]
単眼視覚計測(VO)はフレーム・ツー・フレームのポーズ推定時にエラーの蓄積に苦しむ。
本稿では,より長いシーケンスの一貫性を考慮したVOの自己教師付き学習手法を提案する。
我々は、幾何VOのループ閉鎖モジュールを模倣したサイクル整合損失を含む、純粋に自己監督的な損失でネットワークを訓練する。
論文 参考訳(メタデータ) (2020-07-21T17:59:01Z) - Structure-Preserving Super Resolution with Gradient Guidance [87.79271975960764]
単一画像超解像(SISR)の構造
最近のGAN(Generative Adversarial Network)による研究は、SISRの開発を促進している。
しかし、復元された画像には常に望ましくない構造歪みがある。
論文 参考訳(メタデータ) (2020-03-29T17:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。