論文の概要: Photometric LiDAR and RGB-D Bundle Adjustment
- arxiv url: http://arxiv.org/abs/2303.16878v1
- Date: Wed, 29 Mar 2023 17:35:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 13:45:23.430248
- Title: Photometric LiDAR and RGB-D Bundle Adjustment
- Title(参考訳): 光度LiDARとRGB-Dバンドル調整
- Authors: Luca Di Giammarino and Emanuele Giacomini and Leonardo Brizi and Omar
Salem and Giorgio Grisetti
- Abstract要約: 本稿では,RGB-D と LiDAR の両方を併用した新しいバンドリング調整(BA)測光戦略を提案する。
さらに,RGB-D と LiDAR を併用した統合手法の利点を示す。
- 参考スコア(独自算出の注目度): 3.3948742816399697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The joint optimization of the sensor trajectory and 3D map is a crucial
characteristic of Simultaneous Localization and Mapping (SLAM) systems. To
achieve this, the gold standard is Bundle Adjustment (BA). Modern 3D LiDARs now
retain higher resolutions that enable the creation of point cloud images
resembling those taken by conventional cameras. Nevertheless, the typical
effective global refinement techniques employed for RGB-D sensors are not
widely applied to LiDARs. This paper presents a novel BA photometric strategy
that accounts for both RGB-D and LiDAR in the same way. Our work can be used on
top of any SLAM/GNSS estimate to improve and refine the initial trajectory. We
conducted different experiments using these two depth sensors on public
benchmarks. Our results show that our system performs on par or better compared
to other state-of-the-art ad-hoc SLAM/BA strategies, free from data association
and without making assumptions about the environment. In addition, we present
the benefit of jointly using RGB-D and LiDAR within our unified method. We
finally release an open-source CUDA/C++ implementation.
- Abstract(参考訳): センサ軌道と3次元マップの協調最適化は,同時局在マッピングシステム (slam) の重要な特徴である。
これを実現するため、金本位制はバンドル調整(BA)である。
現代の3D LiDARは、従来のカメラと類似した点雲画像の作成を可能にする高解像度を維持している。
しかしながら、RGB-Dセンサーに使用される典型的なグローバルリファインメント技術は、LiDARには広く適用されていない。
本稿では,RGB-DとLiDARの両方を併用した新しいBA測光方式を提案する。
我々の研究は、SLAM/GNSSの推定値を使って初期軌道を改善し、改善することができる。
我々はこれらの2つの深度センサを公開ベンチマークで異なる実験を行った。
その結果,本システムは他の最先端のアドホックスラム/ba戦略と同等かそれ以上の性能を示し,データアソシエーションは不要であり,環境を前提にしない。
さらに,RGB-D と LiDAR を併用した統合手法の利点を示す。
ついにオープンソースCUDA/C++実装をリリースしました。
関連論文リスト
- LiOn-XA: Unsupervised Domain Adaptation via LiDAR-Only Cross-Modal Adversarial Training [61.26381389532653]
LiOn-XAは、LiDAR-Only Cross-Modal (X)学習と3D LiDARポイントクラウドセマンティックセマンティックセグメンテーションのためのAdversarial Trainingを組み合わせた、教師なしドメイン適応(UDA)アプローチである。
3つの現実的適応シナリオに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-10-21T09:50:17Z) - Gait Sequence Upsampling using Diffusion Models for Single LiDAR Sensors [1.0485739694839664]
LidarGSUは、既存の識別モデルの一般化能力を改善するように設計されている。
本研究は,ビデオ間翻訳手法における条件付きマスクとして,細かな歩行者点雲上のDPMを利用する。
提案手法では,SUSTeck1Kデータセットを用いて,生成品質と認識性能を評価する。
論文 参考訳(メタデータ) (2024-10-11T10:11:21Z) - IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - GlORIE-SLAM: Globally Optimized RGB-only Implicit Encoding Point Cloud SLAM [53.6402869027093]
フレキシブルなニューラルポイントクラウド表現シーンを用いたRGBのみの高密度SLAMシステムを提案する。
また,単分子深度とともに暗黙のポーズと深さを最適化する新しいDSPO層を導入する。
論文 参考訳(メタデータ) (2024-03-28T16:32:06Z) - CMRNext: Camera to LiDAR Matching in the Wild for Localization and Extrinsic Calibration [9.693729708337125]
CMRNextはカメラ-LIDARマッチングの新しいアプローチであり、センサー固有のパラメータとは独立しており、一般化可能であり、野生で使用することができる。
3つの公開データセットと3つの社内ロボットを含む6つの異なるロボットプラットフォーム上でCMRNextを広範囲に評価した。
論文 参考訳(メタデータ) (2024-01-31T19:14:12Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - R$^3$LIVE++: A Robust, Real-time, Radiance reconstruction package with a
tightly-coupled LiDAR-Inertial-Visual state Estimator [5.972044427549262]
同時ローカライゼーションとマッピング(SLAM)は、自律ロボット(例えば、自動運転車、無人ドローン)、3Dマッピングシステム、AR/VRアプリケーションに不可欠である。
この研究は、R$3$LIVE++と呼ばれる新しいLiDAR-慣性-視覚融合フレームワークを提案した。
論文 参考訳(メタデータ) (2022-09-08T09:26:20Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - End-To-End Optimization of LiDAR Beam Configuration for 3D Object
Detection and Localization [87.56144220508587]
与えられたアプリケーションに対するLiDARビーム構成の最適化を学ぶために、新しい経路を取る。
ビーム構成を自動的に最適化する強化学習に基づく学習最適化フレームワークを提案する。
本手法は低解像度(低コスト)のLiDARが必要な場合に特に有用である。
論文 参考訳(メタデータ) (2022-01-11T09:46:31Z) - DeepLiDARFlow: A Deep Learning Architecture For Scene Flow Estimation
Using Monocular Camera and Sparse LiDAR [10.303618438296981]
シーンフロー(Scene flow)とは、シーンの動きと幾何学を3Dで再現する手法である。
ほとんどの最先端の手法では、ステレオ画像のペアをフルシーン再構築のための入力として利用する。
DeepLiDARFlowは、複数のスケールで高レベルのRGBとLiDAR機能を融合する、新しいディープラーニングアーキテクチャである。
論文 参考訳(メタデータ) (2020-08-18T19:51:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。