論文の概要: Real-time Registration and Reconstruction with Cylindrical LiDAR Images
- arxiv url: http://arxiv.org/abs/2112.02779v1
- Date: Mon, 6 Dec 2021 04:28:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:02:40.197896
- Title: Real-time Registration and Reconstruction with Cylindrical LiDAR Images
- Title(参考訳): 円筒LiDAR画像によるリアルタイム登録と再構成
- Authors: Wei Dong, Kwonyoung Ryu, Michael Kaess, Jaesik Park
- Abstract要約: LiDARデータのスピン化は3次元知覚タスクに多いが、円筒形状の研究は少ない。
我々はLiDARスキャンの生成を再考し、生スキャンのデータに対する円筒形の範囲画像表現を示す。
- 参考スコア(独自算出の注目度): 35.200145643663824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spinning LiDAR data are prevalent for 3D perception tasks, yet its
cylindrical image form is less studied. Conventional approaches regard scans as
point clouds, and they either rely on expensive Euclidean 3D nearest neighbor
search for data association or depend on projected range images for further
processing. We revisit the LiDAR scan formation and present a cylindrical range
image representation for data from raw scans, equipped with an efficient
calibrated spherical projective model. With our formulation, we 1) collect a
large dataset of LiDAR data consisting of both indoor and outdoor sequences
accompanied with pseudo-ground truth poses; 2) evaluate the projective and
conventional registration approaches on the sequences with both synthetic and
real-world transformations; 3) transfer state-of-the-art RGB-D algorithms to
LiDAR that runs up to 180 Hz for registration and 150 Hz for dense
reconstruction. The dataset and tools will be released.
- Abstract(参考訳): LiDARデータのスピン化は3次元知覚タスクに多いが、円筒形状の研究は少ない。
従来の方法ではスキャンを点雲とみなし、ユークリッドの高額な3D近傍でデータアソシエーションを探索するか、さらなる処理のために投影された範囲画像に依存する。
我々はLiDARスキャンの生成を再検討し、効率的なキャリブレーション球面射影モデルを備えた生スキャンデータに対する円筒レンジ画像表現を提案する。
私たちの定式化によって
1) 擬似的真理ポーズを伴う屋内及び屋外両方のシーケンスからなるLiDARデータの大規模なデータセットを収集する。
2) 合成及び実世界の変換によるシーケンスの投影的及び従来的な登録手法の評価
3)最先端のrgb-dアルゴリズムをlidarに転送し、登録には180hz、高密度復元には150hzを動作させる。
データセットとツールがリリースされる。
関連論文リスト
- LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - GauU-Scene V2: Assessing the Reliability of Image-Based Metrics with Expansive Lidar Image Dataset Using 3DGS and NeRF [2.4673377627220323]
本稿では,新しい3次元表現手法を用いたマルチモーダルな大規模シーン再構築ベンチマークを提案する。
GauU-Sceneは6.5平方キロメートル以上をカバーし、LiDARの地上真実と組み合わせた総合的なRGBデータセットを備えている。
ドローンによるデータセットのためのLiDARおよび画像アライメント手法を最初に提案する。
論文 参考訳(メタデータ) (2024-04-07T08:51:31Z) - TCLC-GS: Tightly Coupled LiDAR-Camera Gaussian Splatting for Autonomous Driving [14.80202289008908]
都市シーンの3次元ガウススティング(3D-GS)に基づくほとんどの3次元ガウススティング(3D-GS)は、3D LiDARポイントで直接3Dガウスを初期化する。
我々は,LiDAR-Camera Gaussian Splatting (TCLC-GS) を設計し,LiDARとカメラセンサの双方の強度をフル活用する。
提案手法は高速な訓練を行い,1920x1280 (Waymo) の解像度で90 FPS,都市シナリオで1600x900 (nuScenes) の解像度で120 FPS の解像度でリアルタイム RGB と深度レンダリングを実現する。
論文 参考訳(メタデータ) (2024-04-03T02:26:15Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - Generative Range Imaging for Learning Scene Priors of 3D LiDAR Data [3.9447103367861542]
本稿では,データレベルドメイン転送に適用可能なLiDARレンジ画像の生成モデルを提案する。
LiDAR測定がポイント・バイ・ポイント・レンジ・イメージングに基づくことから,暗黙的な画像表現に基づく生成対向ネットワークを訓練する。
本モデルの有効性と多様性を,ポイントベースおよびイメージベース・オブ・ザ・アーティファクト・ジェネレーティブ・モデルと比較した。
論文 参考訳(メタデータ) (2022-10-21T06:08:39Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - Lidar-Monocular Surface Reconstruction Using Line Segments [5.542669744873386]
LIDARスキャンと画像データの両方で検出される一般的な幾何学的特徴を利用して、2つのセンサからのデータを高レベル空間で処理することを提案する。
提案手法は, 高精度な地中真理推定を必要とせず, 最先端のLIDARサーベイに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2021-04-06T19:49:53Z) - Fast and Robust Registration of Aerial Images and LiDAR data Based on
Structrual Features and 3D Phase Correlation [6.3812295314207335]
本稿では,構造的特徴と3次元位相相関に基づく自動登録手法を提案する。
空中画像とLiDARデータの2つのデータセットを用いて実験したところ、提案手法は最先端の手法よりもはるかに高速で堅牢であることがわかった。
論文 参考訳(メタデータ) (2020-04-21T08:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。