論文の概要: Physically Based Neural LiDAR Resimulation
- arxiv url: http://arxiv.org/abs/2507.12489v1
- Date: Tue, 15 Jul 2025 19:49:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.206431
- Title: Physically Based Neural LiDAR Resimulation
- Title(参考訳): 物理ベースニューラルLiDARシミュレーション
- Authors: Richard Marcus, Marc Stamminger,
- Abstract要約: 提案手法は既存の手法に比べて高精度なLiDARシミュレーションを実現する。
提案手法は,高分解能LiDARスキャンをカメラ視点で生成するなど,高度な再現性を示す。
- 参考スコア(独自算出の注目度): 4.349248791803596
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Methods for Novel View Synthesis (NVS) have recently found traction in the field of LiDAR simulation and large-scale 3D scene reconstruction. While solutions for faster rendering or handling dynamic scenes have been proposed, LiDAR specific effects remain insufficiently addressed. By explicitly modeling sensor characteristics such as rolling shutter, laser power variations, and intensity falloff, our method achieves more accurate LiDAR simulation compared to existing techniques. We demonstrate the effectiveness of our approach through quantitative and qualitative comparisons with state-of-the-art methods, as well as ablation studies that highlight the importance of each sensor model component. Beyond that, we show that our approach exhibits advanced resimulation capabilities, such as generating high resolution LiDAR scans in the camera perspective. Our code and the resulting dataset are available at https://github.com/richardmarcus/PBNLiDAR.
- Abstract(参考訳): 新規ビュー合成法(NVS)は近年,LiDARシミュレーションと大規模3次元シーン再構成の分野で注目されている。
動的シーンのレンダリングや処理を高速化するためのソリューションが提案されているが、LiDAR特有の効果は未解決のままである。
ローリングシャッター,レーザパワー変動,強度低下などのセンサ特性を明示的にモデル化することにより,既存の手法に比べて高精度なLiDARシミュレーションを実現する。
本稿では,各センサモデルコンポーネントの重要性を明らかにするアブレーション研究とともに,最先端手法と定量的,定性的比較によるアプローチの有効性を実証する。
さらに,本手法では,高分解能LiDARスキャンをカメラ視点で生成するなど,高度な再現性を示す。
私たちのコードと結果のデータセットはhttps://github.com/richardmarcus/PBNLiDARで公開されています。
関連論文リスト
- GS-LiDAR: Generating Realistic LiDAR Point Clouds with Panoramic Gaussian Splatting [3.376357029373187]
GS-LiDARは、パノラマガウススプラッティングで現実的なLiDAR点雲を生成するための新しいフレームワークである。
我々は,パノラマLiDAR監督によって導かれる光線スプラット交差を明示する新しいパノラマレンダリング手法を提案する。
論文 参考訳(メタデータ) (2025-01-22T11:21:20Z) - LiDAR-RT: Gaussian-based Ray Tracing for Dynamic LiDAR Re-simulation [31.79143254487969]
LiDAR-RTは、リアルタイムで物理的に正確なLiDARの再シミュレーションをサポートする新しいフレームワークである。
私たちの主な貢献は、効率的で効果的なレンダリングパイプラインの開発です。
我々のフレームワークは、フレキシブルなシーン編集操作と様々なセンサー構成でリアルなレンダリングをサポートしています。
論文 参考訳(メタデータ) (2024-12-19T18:58:36Z) - Gait Sequence Upsampling using Diffusion Models for Single LiDAR Sensors [1.0485739694839664]
LidarGSUは、既存の識別モデルの一般化能力を改善するように設計されている。
本研究は,ビデオ間翻訳手法における条件付きマスクとして,細かな歩行者点雲上のDPMを利用する。
提案手法では,SUSTeck1Kデータセットを用いて,生成品質と認識性能を評価する。
論文 参考訳(メタデータ) (2024-10-11T10:11:21Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - Neural LiDAR Fields for Novel View Synthesis [80.45307792404685]
本稿では,LiDAR計測からニューラルネットワークシーンの表現を最適化する手法であるLiDAR(NFL)について述べる。
NFLは、ニューラルネットワークのレンダリングパワーと、LiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせる。
合成されたビューの改良されたリアリズムは、ドメインギャップを実際のスキャンに狭め、より良い登録とセマンティックセグメンテーション性能に変換することを示す。
論文 参考訳(メタデータ) (2023-05-02T17:55:38Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。