論文の概要: Fast Synthetic LiDAR Rendering via Spherical UV Unwrapping of
Equirectangular Z-Buffer Images
- arxiv url: http://arxiv.org/abs/2006.04345v1
- Date: Mon, 8 Jun 2020 04:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 02:29:50.754551
- Title: Fast Synthetic LiDAR Rendering via Spherical UV Unwrapping of
Equirectangular Z-Buffer Images
- Title(参考訳): 球状UVアンラッピングによる等角Zバッファ画像の高速合成LiDARレンダリング
- Authors: Mohammed Hossny, Khaled Saleh, Mohammed Attia, Ahmed Abobakr, Julie
Iskander
- Abstract要約: 本稿では,1フレーム当たり1秒の高速レンダリングでLiDAR点雲をシミュレートする新しい手法を提案する。
提案手法は、等角形状Zバッファ画像の球面紫外解離に依存する。
複雑な都市景観の誤差は, 2~120mの範囲で4.28cm, エルロディネHDL64-E2パラメータで報告されている。
- 参考スコア(独自算出の注目度): 3.098294101216779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR data is becoming increasingly essential with the rise of autonomous
vehicles. Its ability to provide 360deg horizontal field of view of point
cloud, equips self-driving vehicles with enhanced situational awareness
capabilities. While synthetic LiDAR data generation pipelines provide a good
solution to advance the machine learning research on LiDAR, they do suffer from
a major shortcoming, which is rendering time. Physically accurate LiDAR
simulators (e.g. Blensor) are computationally expensive with an average
rendering time of 14-60 seconds per frame for urban scenes. This is often
compensated for via using 3D models with simplified polygon topology (low poly
assets) as is the case of CARLA (Dosovitskiy et al., 2017). However, this comes
at the price of having coarse grained unrealistic LiDAR point clouds. In this
paper, we present a novel method to simulate LiDAR point cloud with faster
rendering time of 1 sec per frame. The proposed method relies on spherical UV
unwrapping of Equirectangular Z-Buffer images. We chose Blensor (Gschwandtner
et al., 2011) as the baseline method to compare the point clouds generated
using the proposed method. The reported error for complex urban landscapes is
4.28cm for a scanning range between 2-120 meters with Velodyne HDL64-E2
parameters. The proposed method reported a total time per frame to 3.2 +/- 0.31
seconds per frame. In contrast, the BlenSor baseline method reported 16.2 +/-
1.82 seconds.
- Abstract(参考訳): 自動運転車の普及に伴い、LiDARのデータはますます重要になっている。
点雲の360度水平視野を提供する能力は、状況認識能力を高めた自動運転車を装備する。
合成LiDARデータ生成パイプラインは、LiDARに関する機械学習研究を前進させるための優れたソリューションを提供するが、それらはレンダリング時間である大きな欠点に悩まされている。
物理的に正確なLiDARシミュレータ(例:Blensor)は計算コストが高く、1フレームあたり平均レンダリング時間は14-60秒である。
これは、carla(dosovitskiy et al., 2017)のように、単純化されたポリゴントポロジー(低ポリアセット)を持つ3dモデルを使用することで補うことが多い。
しかしこれは、粗い粒度の非現実的なLiDAR点雲の価格が伴う。
本稿では,1フレーム当たり1秒の高速レンダリングでLiDAR点雲をシミュレートする新しい手法を提案する。
提案手法は、等角形状Zバッファ画像の球面紫外解離に依存する。
Blensor (Gschwandtner et al., 2011) をベースライン法として, 提案手法を用いて生成された点雲の比較を行った。
複雑な都市景観の誤差はヴェロダインhdl64-e2パラメータによる2-120mの走査範囲で4.28cmである。
提案手法では,フレーム毎の総時間は3.2+/-0.31秒であった。
対照的に、BlenSorベースライン法は16.2 +/1.82秒を報告した。
関連論文リスト
- TULIP: Transformer for Upsampling of LiDAR Point Cloud [34.420183302607064]
LiDAR Upsamplingは、ロボットや自動運転車の認識システムにとって難しいタスクだ。
近年の研究では、3次元ユークリッド空間からのLiDARデータを2次元画像空間の超解像問題に変換することでこの問題を解決することを提案する。
低分解能LiDAR入力から高分解能LiDAR点雲を再構成する新しい方法であるTジオメトリを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:43:28Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [50.35729913765043]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - Advancements in 3D Lane Detection Using LiDAR Point Clouds: From Data
Collection to Model Development [11.195475830306506]
LiSV-3DLaneは大規模な3Dレーンデータセットで、20kフレームのサラウンドビューのLiDAR点雲と豊富なセマンティックアノテーションから構成される。
本稿では,LiDARを用いた新しい3次元車線検出モデルLiLaDetを提案し,LiDAR点雲の空間的幾何学的学習をBird's Eye View (BEV) に基づく車線識別に取り入れた。
論文 参考訳(メタデータ) (2023-09-24T09:58:49Z) - LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels [50.40632021583213]
我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
論文 参考訳(メタデータ) (2023-08-02T20:46:43Z) - NeRF-LiDAR: Generating Realistic LiDAR Point Clouds with Neural Radiance
Fields [20.887421720818892]
実世界の情報を利用してリアルなLIDAR点雲を生成する新しいLiDARシミュレーション手法であるNeRF-LIDARを提案する。
我々は,生成したLiDAR点雲上で異なる3次元セグメンテーションモデルをトレーニングすることにより,NeRF-LiDARの有効性を検証する。
論文 参考訳(メタデータ) (2023-04-28T12:41:28Z) - Factorized Inverse Path Tracing for Efficient and Accurate
Material-Lighting Estimation [97.0195314255101]
逆経路追跡は計算に高価であり、反射と放出の間に曖昧さが存在する。
当社のFactized Inverse Path Tracing (FIPT) は, ファクタリング光輸送の定式化によってこれらの課題に対処する。
提案アルゴリズムは, 従来よりも高精度な材料と照明の最適化を実現し, あいまいさの解消に有効である。
論文 参考訳(メタデータ) (2023-04-12T07:46:05Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - FPPN: Future Pseudo-LiDAR Frame Prediction for Autonomous Driving [30.18167579599365]
本稿では,最初の疑似LiDARフレーム予測ネットワークを提案する。
まず、ダイナミックな動き情報に基づいて、将来的な深度マップを粗大に予測する。
我々は静的な文脈情報を用いて予測された深度マップを精査する。
将来の擬似LiDARフレームは、予測された高密度深度マップを対応する3D点雲に変換することで得ることができる。
論文 参考訳(メタデータ) (2021-12-08T16:46:18Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。