論文の概要: LIR-LIVO: A Lightweight,Robust LiDAR/Vision/Inertial Odometry with Illumination-Resilient Deep Features
- arxiv url: http://arxiv.org/abs/2502.08676v1
- Date: Wed, 12 Feb 2025 05:28:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:47:17.014501
- Title: LIR-LIVO: A Lightweight,Robust LiDAR/Vision/Inertial Odometry with Illumination-Resilient Deep Features
- Title(参考訳): LIR-LIVO:照度-弾性深部特性を持つ軽量・ローバストLiDAR/Vision/慣性オドメトリー
- Authors: Shujie Zhou, Zihao Wang, Xinye Dai, Weiwei Song, Shengfeng Gu,
- Abstract要約: 提案手法は、深層学習に基づく照明耐性特徴とLIVO(LiDAR-Inertial-Visual Odometry)を利用する。
LIR-LIVOは、高い計算コストで最先端(SOTA)の精度と堅牢性を達成する。
- 参考スコア(独自算出の注目度): 8.095827028713684
- License:
- Abstract: In this paper, we propose LIR-LIVO, a lightweight and robust LiDAR-inertial-visual odometry system designed for challenging illumination and degraded environments. The proposed method leverages deep learning-based illumination-resilient features and LiDAR-Inertial-Visual Odometry (LIVO). By incorporating advanced techniques such as uniform depth distribution of features enabled by depth association with LiDAR point clouds and adaptive feature matching utilizing Superpoint and LightGlue, LIR-LIVO achieves state-of-the-art (SOTA) accuracy and robustness with low computational cost. Experiments are conducted on benchmark datasets, including NTU-VIRAL, Hilti'22, and R3LIVE-Dataset. The corresponding results demonstrate that our proposed method outperforms other SOTA methods on both standard and challenging datasets. Particularly, the proposed method demonstrates robust pose estimation under poor ambient lighting conditions in the Hilti'22 dataset. The code of this work is publicly accessible on GitHub to facilitate advancements in the robotics community.
- Abstract(参考訳): 本稿では,軽量で頑健なLiDAR慣性・視覚的オドメトリーシステムであるLIR-LIVOを提案する。
提案手法は,LIVO (LiDAR-Inertial-Visual Odometry) と深層学習に基づく照明耐性機能を利用する。
スーパーポイントとLightGlueを利用して,LIR-LIVOは,LiDAR点雲との深度結合によって実現される特徴の均一な深さ分布や適応的特徴マッチングなどの高度な手法を取り入れることで,計算コストの低いSOTA(State-of-the-art)精度とロバスト性を実現する。
NTU-VIRAL、Hilti'22、R3LIVE-Datasetなどのベンチマークデータセットで実験が行われる。
その結果,提案手法は,標準および挑戦的データセットにおいて,他のSOTA手法よりも優れていることがわかった。
特に,Hilti'22データセットにおける環境照明条件の低い条件下でのロバストポーズ推定を示す。
この作業のコードは、ロボティクスコミュニティの進歩を促進するためにGitHubで公開されている。
関連論文リスト
- BRIGHT-VO: Brightness-Guided Hybrid Transformer for Visual Odometry with Multi-modality Refinement Module [11.898515581215708]
視覚計測(VO)は、自律運転、ロボットナビゲーション、その他の関連するタスクにおいて重要な役割を果たす。
本稿では,トランスフォーマーアーキテクチャに基づく新しいVOモデルであるBrightVOを紹介し,フロントエンドの視覚的特徴抽出を行う。
ポーズグラフ最適化を用いて、このモジュールは、エラーを減らし、精度とロバスト性の両方を改善するために、ポーズ推定を反復的に洗練する。
論文 参考訳(メタデータ) (2025-01-15T08:50:52Z) - KN-LIO: Geometric Kinematics and Neural Field Coupled LiDAR-Inertial Odometry [11.851882531837244]
近年のニューラルフィールド技術は高密度マッピングにおいて大きな可能性を秘めているが、純粋なLiDARマッピングは高ダイナミックな車両で作業することは困難である。
そこで我々は,幾何キネマティクスとニューラルフィールドを密結合させて,同時状態推定と密写像能力を向上する新しい解を提案する。
我々のKN-LIOは、ポーズ推定において既存の最先端ソリューションに匹敵する性能を達成し、純粋なLiDAR法よりも高密度マッピング精度を向上させる。
論文 参考訳(メタデータ) (2025-01-08T04:14:09Z) - RSGaussian:3D Gaussian Splatting with LiDAR for Aerial Remote Sensing Novel View Synthesis [6.900071309404811]
RSGaussianは、空中リモートセンシングシーンのための革新的な新しいビュー合成(NVS)手法である。
LiDARの点雲を3Dガウス散乱法に制約として組み込んでおり、ガウスが幾何ベンチマークに沿って成長して分裂することを保証している。
このアプローチはまた、LiDAR点雲と2D画像の間の画素レベルのアライメントを実現するために、カメラモデルの歪みパラメータを伴う座標変換を導入する。
論文 参考訳(メタデータ) (2024-12-24T12:08:50Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Tightly-Coupled LiDAR-Visual SLAM Based on Geometric Features for Mobile
Agents [43.137917788594926]
幾何学的特徴に基づく密結合LiDAR視覚SLAMを提案する。
視覚サブシステムによって検出された全ラインセグメントは、LiDARサブシステムの制限を克服する。
本システムは,現在最先端のマルチモーダル手法と比較して,より正確でロバストなポーズ推定を実現する。
論文 参考訳(メタデータ) (2023-07-15T10:06:43Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Low-Light Hyperspectral Image Enhancement [90.84144276935464]
本研究は,暗黒領域に隠された空間スペクトル情報を明らかにすることを目的とした,低照度HSI強調タスクに焦点を当てた。
ラプラシアのピラミッドの分解と再構成に基づいて, エンド・ツー・エンドのデータ駆動型低照度HSIエンハンスメント(HSIE)手法を開発した。
定量的評価と視覚効果の両面でのHSIEの有効性と効果を実証した。
論文 参考訳(メタデータ) (2022-08-05T08:45:52Z) - End-To-End Optimization of LiDAR Beam Configuration for 3D Object
Detection and Localization [87.56144220508587]
与えられたアプリケーションに対するLiDARビーム構成の最適化を学ぶために、新しい経路を取る。
ビーム構成を自動的に最適化する強化学習に基づく学習最適化フレームワークを提案する。
本手法は低解像度(低コスト)のLiDARが必要な場合に特に有用である。
論文 参考訳(メタデータ) (2022-01-11T09:46:31Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。