論文の概要: R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual
tightly-coupled state Estimation and mapping package
- arxiv url: http://arxiv.org/abs/2109.07982v1
- Date: Fri, 10 Sep 2021 22:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-19 14:07:51.895168
- Title: R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual
tightly-coupled state Estimation and mapping package
- Title(参考訳): R3LIVE:ロバストでリアルタイム、RGB色、LiDAR-Inertial-Visual 密結合状態推定とマッピングパッケージ
- Authors: Jiarong Lin and Fu Zhang
- Abstract要約: R3LIVEは、LiDAR、慣性、および視覚センサーの測定を利用して、堅牢で正確な状態推定を実現する。
R3LIVEは多彩で多彩なシステムであり、様々な応用が可能である。
当社はR3LIVEをオープンしており、コード、ソフトウェアユーティリティ、デバイスの設計がすべて含まれています。
- 参考スコア(独自算出の注目度): 7.7016529229597035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this letter, we propose a novel LiDAR-Inertial-Visual sensor fusion
framework termed R3LIVE, which takes advantage of measurement of LiDAR,
inertial, and visual sensors to achieve robust and accurate state estimation.
R3LIVE is contained of two subsystems, the LiDAR-inertial odometry (LIO) and
visual-inertial odometry (VIO). The LIO subsystem (FAST-LIO) takes advantage of
the measurement from LiDAR and inertial sensors and builds the geometry
structure of (i.e. the position of 3D points) global maps. The VIO subsystem
utilizes the data of visual-inertial sensors and renders the map's texture
(i.e. the color of 3D points). More specifically, the VIO subsystem fuses the
visual data directly and effectively by minimizing the frame-to-map photometric
error. The developed system R3LIVE is developed based on our previous work
R2LIVE, with careful architecture design and implementation. Experiment results
show that the resultant system achieves more robustness and higher accuracy in
state estimation than current counterparts (see our attached video).
R3LIVE is a versatile and well-engineered system toward various possible
applications, which can not only serve as a SLAM system for real-time robotic
applications, but can also reconstruct the dense, precise, RGB-colored 3D maps
for applications like surveying and mapping. Moreover, to make R3LIVE more
extensible, we develop a series of offline utilities for reconstructing and
texturing meshes, which further minimizes the gap between R3LIVE and various of
3D applications such as simulators, video games and etc (see our demos video).
To share our findings and make contributions to the community, we open source
R3LIVE on our Github, including all of our codes, software utilities, and the
mechanical design of our device.
- Abstract(参考訳): 本稿では,lidar,慣性,視覚センサの測定を活用し,ロバストで正確な状態推定を実現する新しいlidar-inertial-visual sensor fusionフレームワークr3liveを提案する。
R3LIVEは、LIO(LiDAR-inertial odometry)とVIO(visual-inertial odometry)の2つのサブシステムから構成される。
LIOサブシステム(FAST-LIO)は、LiDARと慣性センサーからの測定を活用し、(つまり3Dポイントの位置)グローバルマップの幾何学構造を構築する。
VIOサブシステムは視覚慣性センサーのデータを使用し、地図のテクスチャ(つまり3Dポイントの色)をレンダリングする。
より具体的には、vioサブシステムは、フレーム対マップフォトメトリックエラーを最小化し、視覚的データを直接かつ効果的に融合する。
開発システムであるR3LIVEは、アーキテクチャ設計と実装を慎重に行い、これまでのR2LIVEに基づいて開発されている。
実験結果から,本システムは現状のシステムに比べて,より堅牢で高精度な状態推定が可能であることが示唆された(添付ビデオ参照)。
R3LIVEは様々な応用に向けて多用途でよく設計されたシステムであり、リアルタイムなロボットアプリケーションのためのSLAMシステムとして機能するだけでなく、測量やマッピングのようなアプリケーションのための密集した正確なRGB色の3Dマップを再構築することもできる。
さらに,r3liveの拡張性を高めるために,メッシュの再構築とテキスト化のための一連のオフラインユーティリティを開発し,r3liveとシミュレータやビデオゲームなど,さまざまな3dアプリケーションとのギャップをさらに最小化する(デモビデオ参照)。
私たちの発見を共有し、コミュニティに貢献するために、私たちはGithubでR3LIVEをオープンソース化しました。
関連論文リスト
- SR-LIVO: LiDAR-Inertial-Visual Odometry and Mapping with Sweep
Reconstruction [5.479262483638832]
SR-LIVOは、画像のタイムスタンプと再構成されたスイープを整列させるスイープ再構成を用いた、先進的で斬新なLIV-SLAMシステムである。
この分野でのコミュニティ開発に貢献するために、ソースコードをリリースしました。
論文 参考訳(メタデータ) (2023-12-28T03:06:49Z) - Tightly-Coupled LiDAR-Visual SLAM Based on Geometric Features for Mobile
Agents [43.137917788594926]
幾何学的特徴に基づく密結合LiDAR視覚SLAMを提案する。
視覚サブシステムによって検出された全ラインセグメントは、LiDARサブシステムの制限を克服する。
本システムは,現在最先端のマルチモーダル手法と比較して,より正確でロバストなポーズ推定を実現する。
論文 参考訳(メタデータ) (2023-07-15T10:06:43Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - BS3D: Building-scale 3D Reconstruction from RGB-D Images [25.604775584883413]
本稿では,消費者向け深度カメラを用いた大規模3次元再構築のための使い易いフレームワークを提案する。
複雑で高価な買収設定とは異なり、当社のシステムはクラウドソーシングを可能にする。
論文 参考訳(メタデータ) (2023-01-03T11:46:14Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - R$^3$LIVE++: A Robust, Real-time, Radiance reconstruction package with a
tightly-coupled LiDAR-Inertial-Visual state Estimator [5.972044427549262]
同時ローカライゼーションとマッピング(SLAM)は、自律ロボット(例えば、自動運転車、無人ドローン)、3Dマッピングシステム、AR/VRアプリケーションに不可欠である。
この研究は、R$3$LIVE++と呼ばれる新しいLiDAR-慣性-視覚融合フレームワークを提案した。
論文 参考訳(メタデータ) (2022-09-08T09:26:20Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - It's All Around You: Range-Guided Cylindrical Network for 3D Object
Detection [4.518012967046983]
本研究は,360度深度スキャナーによって生成された3次元データを解析するための新しい手法を提案する。
距離誘導畳み込みの概念を導入し,エゴ車と物体のスケールからの距離で受容場を適応させる。
我々のネットワークは、現在の最先端アーキテクチャに匹敵するnuScenesチャレンジにおいて、強力な結果を示す。
論文 参考訳(メタデータ) (2020-12-05T21:02:18Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。