論文の概要: Photometric LiDAR and RGB-D Bundle Adjustment
- arxiv url: http://arxiv.org/abs/2303.16878v1
- Date: Wed, 29 Mar 2023 17:35:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 13:45:23.430248
- Title: Photometric LiDAR and RGB-D Bundle Adjustment
- Title(参考訳): 光度LiDARとRGB-Dバンドル調整
- Authors: Luca Di Giammarino and Emanuele Giacomini and Leonardo Brizi and Omar
Salem and Giorgio Grisetti
- Abstract要約: 本稿では,RGB-D と LiDAR の両方を併用した新しいバンドリング調整(BA)測光戦略を提案する。
さらに,RGB-D と LiDAR を併用した統合手法の利点を示す。
- 参考スコア(独自算出の注目度): 3.3948742816399697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The joint optimization of the sensor trajectory and 3D map is a crucial
characteristic of Simultaneous Localization and Mapping (SLAM) systems. To
achieve this, the gold standard is Bundle Adjustment (BA). Modern 3D LiDARs now
retain higher resolutions that enable the creation of point cloud images
resembling those taken by conventional cameras. Nevertheless, the typical
effective global refinement techniques employed for RGB-D sensors are not
widely applied to LiDARs. This paper presents a novel BA photometric strategy
that accounts for both RGB-D and LiDAR in the same way. Our work can be used on
top of any SLAM/GNSS estimate to improve and refine the initial trajectory. We
conducted different experiments using these two depth sensors on public
benchmarks. Our results show that our system performs on par or better compared
to other state-of-the-art ad-hoc SLAM/BA strategies, free from data association
and without making assumptions about the environment. In addition, we present
the benefit of jointly using RGB-D and LiDAR within our unified method. We
finally release an open-source CUDA/C++ implementation.
- Abstract(参考訳): センサ軌道と3次元マップの協調最適化は,同時局在マッピングシステム (slam) の重要な特徴である。
これを実現するため、金本位制はバンドル調整(BA)である。
現代の3D LiDARは、従来のカメラと類似した点雲画像の作成を可能にする高解像度を維持している。
しかしながら、RGB-Dセンサーに使用される典型的なグローバルリファインメント技術は、LiDARには広く適用されていない。
本稿では,RGB-DとLiDARの両方を併用した新しいBA測光方式を提案する。
我々の研究は、SLAM/GNSSの推定値を使って初期軌道を改善し、改善することができる。
我々はこれらの2つの深度センサを公開ベンチマークで異なる実験を行った。
その結果,本システムは他の最先端のアドホックスラム/ba戦略と同等かそれ以上の性能を示し,データアソシエーションは不要であり,環境を前提にしない。
さらに,RGB-D と LiDAR を併用した統合手法の利点を示す。
ついにオープンソースCUDA/C++実装をリリースしました。
関連論文リスト
- CMRNext: Camera to LiDAR Matching in the Wild for Localization and
Extrinsic Calibration [11.451857506561904]
CMRNextはカメラ-LIDARマッチングの新しいアプローチであり、センサー固有のパラメータとは独立しており、一般化可能であり、野生で使用することができる。
3つの公開データセットと3つの社内ロボットを含む6つの異なるロボットプラットフォーム上でCMRNextを広範囲に評価した。
論文 参考訳(メタデータ) (2024-01-31T19:14:12Z) - Ternary-type Opacity and Hybrid Odometry for RGB-only NeRF-SLAM [62.23809541385653]
3次型不透明度が課題に適している理由と課題について検討する。
本稿では,ボリュームとワープに基づく画像レンダリングを併用した,シンプルながら斬新なビジュアルオドメトリー手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T18:03:17Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - R$^3$LIVE++: A Robust, Real-time, Radiance reconstruction package with a
tightly-coupled LiDAR-Inertial-Visual state Estimator [5.972044427549262]
同時ローカライゼーションとマッピング(SLAM)は、自律ロボット(例えば、自動運転車、無人ドローン)、3Dマッピングシステム、AR/VRアプリケーションに不可欠である。
この研究は、R$3$LIVE++と呼ばれる新しいLiDAR-慣性-視覚融合フレームワークを提案した。
論文 参考訳(メタデータ) (2022-09-08T09:26:20Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - End-To-End Optimization of LiDAR Beam Configuration for 3D Object
Detection and Localization [87.56144220508587]
与えられたアプリケーションに対するLiDARビーム構成の最適化を学ぶために、新しい経路を取る。
ビーム構成を自動的に最適化する強化学習に基づく学習最適化フレームワークを提案する。
本手法は低解像度(低コスト)のLiDARが必要な場合に特に有用である。
論文 参考訳(メタデータ) (2022-01-11T09:46:31Z) - DVIO: Depth aided visual inertial odometry for RGBD sensors [7.745106319694523]
本稿では、RGBDセンサと慣性計測ユニット(IMU)センサを用いて、モバイルデバイスの動作状態を推定する新しい視覚慣性オドメトリー(VIO)システムを提案する。
このシステムはDVIO(Deep-Aided VIO)システムと呼ばれる。
論文 参考訳(メタデータ) (2021-10-20T22:12:01Z) - DeepLiDARFlow: A Deep Learning Architecture For Scene Flow Estimation
Using Monocular Camera and Sparse LiDAR [10.303618438296981]
シーンフロー(Scene flow)とは、シーンの動きと幾何学を3Dで再現する手法である。
ほとんどの最先端の手法では、ステレオ画像のペアをフルシーン再構築のための入力として利用する。
DeepLiDARFlowは、複数のスケールで高レベルのRGBとLiDAR機能を融合する、新しいディープラーニングアーキテクチャである。
論文 参考訳(メタデータ) (2020-08-18T19:51:08Z) - RGB-D Odometry and SLAM [20.02647320786556]
RGB-Dセンサーは低コストで低消費電力で、LiDARのような従来のレンジセンサーの代替品である。
RGBカメラとは異なり、RGB-Dセンサーは3Dシーン再構成のためのフレーム単位の三角測量の必要性を取り除く追加の深度情報を提供する。
本章は3つの主要な部分から構成される: 第一部では、オドメトリーとSLAMの基本概念を紹介し、RGB-Dセンサーの使用を動機づける。
第2部では、カメラポーズトラッキング、シーンマッピング、ループクローズという、SLAMシステムの主要な3つのコンポーネントについて詳述する。
論文 参考訳(メタデータ) (2020-01-19T17:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。