論文の概要: Fast Synthetic LiDAR Rendering via Spherical UV Unwrapping of
Equirectangular Z-Buffer Images
- arxiv url: http://arxiv.org/abs/2006.04345v1
- Date: Mon, 8 Jun 2020 04:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 02:29:50.754551
- Title: Fast Synthetic LiDAR Rendering via Spherical UV Unwrapping of
Equirectangular Z-Buffer Images
- Title(参考訳): 球状UVアンラッピングによる等角Zバッファ画像の高速合成LiDARレンダリング
- Authors: Mohammed Hossny, Khaled Saleh, Mohammed Attia, Ahmed Abobakr, Julie
Iskander
- Abstract要約: 本稿では,1フレーム当たり1秒の高速レンダリングでLiDAR点雲をシミュレートする新しい手法を提案する。
提案手法は、等角形状Zバッファ画像の球面紫外解離に依存する。
複雑な都市景観の誤差は, 2~120mの範囲で4.28cm, エルロディネHDL64-E2パラメータで報告されている。
- 参考スコア(独自算出の注目度): 3.098294101216779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR data is becoming increasingly essential with the rise of autonomous
vehicles. Its ability to provide 360deg horizontal field of view of point
cloud, equips self-driving vehicles with enhanced situational awareness
capabilities. While synthetic LiDAR data generation pipelines provide a good
solution to advance the machine learning research on LiDAR, they do suffer from
a major shortcoming, which is rendering time. Physically accurate LiDAR
simulators (e.g. Blensor) are computationally expensive with an average
rendering time of 14-60 seconds per frame for urban scenes. This is often
compensated for via using 3D models with simplified polygon topology (low poly
assets) as is the case of CARLA (Dosovitskiy et al., 2017). However, this comes
at the price of having coarse grained unrealistic LiDAR point clouds. In this
paper, we present a novel method to simulate LiDAR point cloud with faster
rendering time of 1 sec per frame. The proposed method relies on spherical UV
unwrapping of Equirectangular Z-Buffer images. We chose Blensor (Gschwandtner
et al., 2011) as the baseline method to compare the point clouds generated
using the proposed method. The reported error for complex urban landscapes is
4.28cm for a scanning range between 2-120 meters with Velodyne HDL64-E2
parameters. The proposed method reported a total time per frame to 3.2 +/- 0.31
seconds per frame. In contrast, the BlenSor baseline method reported 16.2 +/-
1.82 seconds.
- Abstract(参考訳): 自動運転車の普及に伴い、LiDARのデータはますます重要になっている。
点雲の360度水平視野を提供する能力は、状況認識能力を高めた自動運転車を装備する。
合成LiDARデータ生成パイプラインは、LiDARに関する機械学習研究を前進させるための優れたソリューションを提供するが、それらはレンダリング時間である大きな欠点に悩まされている。
物理的に正確なLiDARシミュレータ(例:Blensor)は計算コストが高く、1フレームあたり平均レンダリング時間は14-60秒である。
これは、carla(dosovitskiy et al., 2017)のように、単純化されたポリゴントポロジー(低ポリアセット)を持つ3dモデルを使用することで補うことが多い。
しかしこれは、粗い粒度の非現実的なLiDAR点雲の価格が伴う。
本稿では,1フレーム当たり1秒の高速レンダリングでLiDAR点雲をシミュレートする新しい手法を提案する。
提案手法は、等角形状Zバッファ画像の球面紫外解離に依存する。
Blensor (Gschwandtner et al., 2011) をベースライン法として, 提案手法を用いて生成された点雲の比較を行った。
複雑な都市景観の誤差はヴェロダインhdl64-e2パラメータによる2-120mの走査範囲で4.28cmである。
提案手法では,フレーム毎の総時間は3.2+/-0.31秒であった。
対照的に、BlenSorベースライン法は16.2 +/1.82秒を報告した。
関連論文リスト
- SplatAD: Real-Time Lidar and Camera Rendering with 3D Gaussian Splatting for Autonomous Driving [6.221538885604869]
カメラとライダーデータのセンサリアリスティックレンダリングのための既存のニューラル放射場(NeRF)法は、低レンダリング速度に悩まされている。
SplatADは,カメラとライダーデータの両方の動的シーンをリアルかつリアルタイムにレンダリングするための,最初の3DGSベースの手法である。
論文 参考訳(メタデータ) (2024-11-25T16:18:22Z) - EVER: Exact Volumetric Ellipsoid Rendering for Real-time View Synthesis [72.53316783628803]
実時間微分可能な発光専用ボリュームレンダリング法であるExact Volumetric Ellipsoid Rendering (EVER)を提案する。
3D Gaussian Splatting(3DGS)による最近の手法とは異なり、プリミティブベースの表現は正確なボリュームレンダリングを可能にする。
本手法は,3DGSよりもブレンディング問題の方が精度が高く,ビューレンダリングの追従作業も容易であることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:59:09Z) - TASeg: Temporal Aggregation Network for LiDAR Semantic Segmentation [80.13343299606146]
そこで本稿では, 時系列LiDARアグリゲーション・蒸留(TLAD)アルゴリズムを提案する。
時間画像のフル活用を目的として,カメラFOVを大幅に拡張できるTIAFモジュールを設計した。
また,静的移動スイッチ拡張(SMSA)アルゴリズムを開発し,時間的情報を利用してオブジェクトの動作状態を自由に切り替える。
論文 参考訳(メタデータ) (2024-07-13T03:00:16Z) - Digital twins to alleviate the need for real field data in vision-based vehicle speed detection systems [0.9899633398596672]
正確な視覚に基づく速度推定は、レーダーやLiDARに基づく従来の手法よりもコスト効率が高い。
ディープラーニングのアプローチは、利用可能なデータがないため、このコンテキストでは極めて限定的です。
本研究では,CARLAシミュレータを用いたデジタルツインを用いて,特定の実世界のカメラの大規模なデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:41:20Z) - LidaRF: Delving into Lidar for Neural Radiance Field on Street Scenes [73.65115834242866]
光リアリスティックシミュレーションは、自律運転のようなアプリケーションにおいて重要な役割を果たす。
しかし, コリニアカメラの動作やスペーサーのサンプリングにより, 街路景観の再現性は低下する。
街路面のNeRF品質を改善するために,Lidarデータのより優れた利用を可能にするいくつかの知見を提案する。
論文 参考訳(メタデータ) (2024-05-01T23:07:12Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - RangeLDM: Fast Realistic LiDAR Point Cloud Generation [12.868053836790194]
本研究では,高品質なLiDAR点雲を高速に生成するための新しいアプローチであるRangeLDMを紹介する。
Hough 投票による点雲から範囲画像への正確な投影のために、レンジビューデータ分布を補正することで、これを実現する。
我々は、レンジ誘導型識別器を考案し、3次元構造的忠実性を維持するようモデルに指示する。
論文 参考訳(メタデータ) (2024-03-15T08:19:57Z) - TULIP: Transformer for Upsampling of LiDAR Point Clouds [32.77657816997911]
LiDAR Upは、ロボットや自動運転車の認識システムにとって難しいタスクだ。
近年の研究では、3次元ユークリッド空間からのLiDARデータを2次元画像空間の超解像問題に変換することでこの問題を解決することを提案する。
低分解能LiDAR入力から高分解能LiDAR点雲を再構成する新しい方法であるTジオメトリを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:43:28Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels [50.40632021583213]
我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
論文 参考訳(メタデータ) (2023-08-02T20:46:43Z) - NeRF-LiDAR: Generating Realistic LiDAR Point Clouds with Neural Radiance
Fields [20.887421720818892]
実世界の情報を利用してリアルなLIDAR点雲を生成する新しいLiDARシミュレーション手法であるNeRF-LIDARを提案する。
我々は,生成したLiDAR点雲上で異なる3次元セグメンテーションモデルをトレーニングすることにより,NeRF-LiDARの有効性を検証する。
論文 参考訳(メタデータ) (2023-04-28T12:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。