論文の概要: LidarPainter: One-Step Away From Any Lidar View To Novel Guidance
- arxiv url: http://arxiv.org/abs/2507.12114v1
- Date: Wed, 16 Jul 2025 10:30:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.356403
- Title: LidarPainter: One-Step Away From Any Lidar View To Novel Guidance
- Title(参考訳): LidarPainter:ライダービューから新しいガイダンスまで1ステップ
- Authors: Yuzhou Ji, Ke Ma, Hong Cai, Anchun Zhang, Lizhuang Ma, Xin Tan,
- Abstract要約: LidarPainterは1ステップの拡散モデルで、スパースなLiDAR条件とアーティファクトの破損したレンダリングから、一貫した駆動ビューをリアルタイムで復元する。
実験により、LidarPainterは、スピード、品質、リソース効率において最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 40.94239314727953
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Dynamic driving scene reconstruction is of great importance in fields like digital twin system and autonomous driving simulation. However, unacceptable degradation occurs when the view deviates from the input trajectory, leading to corrupted background and vehicle models. To improve reconstruction quality on novel trajectory, existing methods are subject to various limitations including inconsistency, deformation, and time consumption. This paper proposes LidarPainter, a one-step diffusion model that recovers consistent driving views from sparse LiDAR condition and artifact-corrupted renderings in real-time, enabling high-fidelity lane shifts in driving scene reconstruction. Extensive experiments show that LidarPainter outperforms state-of-the-art methods in speed, quality and resource efficiency, specifically 7 x faster than StreetCrafter with only one fifth of GPU memory required. LidarPainter also supports stylized generation using text prompts such as "foggy" and "night", allowing for a diverse expansion of the existing asset library.
- Abstract(参考訳): 動的運転シーン再構築は、デジタルツインシステムや自律運転シミュレーションのような分野において非常に重要である。
しかし、ビューが入力軌跡から逸脱し、背景モデルと車両モデルが破損した場合、許容できない劣化が発生する。
新規軌跡の復元品質を向上させるため, 既存の手法では, 不整合, 変形, 時間消費など, 様々な制約が課されている。
本稿では,一段階の拡散モデルであるLidarPainterを提案する。このモデルでは,粗いLiDAR条件から一貫したドライビングビューをリアルタイムに再現し,駆動シーン再構成における高忠実度レーンシフトを実現する。
大規模な実験によると、LidarPainterは、スピード、品質、リソース効率において最先端の手法よりも優れており、特にGPUメモリの5分の1しか必要としないStreetCrafterよりも7倍高速である。
また、LidarPainterは"foggy"や"night"といったテキストプロンプトを使ってスタイル化された生成をサポートし、既存のアセットライブラリを多種多様な拡張を可能にしている。
関連論文リスト
- StreetCrafter: Street View Synthesis with Controllable Video Diffusion Models [59.55232046525733]
我々は,LDARポイントクラウドレンダリングをピクセルレベルの条件として利用する,制御可能なビデオ拡散モデルであるStreetCrafterを紹介する。
さらに、画素レベルのLiDAR条件を利用することで、ターゲットシーンに対して正確なピクセルレベルの編集を行うことができる。
我々のモデルは視点変化を柔軟に制御し、レンダリング領域を満たすためのビューを拡大する。
論文 参考訳(メタデータ) (2024-12-17T18:58:55Z) - DrivingRecon: Large 4D Gaussian Reconstruction Model For Autonomous Driving [83.27075316161086]
光リアルな4次元ストリートシーンの再構築は、自動運転における実環境シミュレータの開発に不可欠である。
本稿では,汎用的な運転シーン再構築モデルであるLarge 4D Gaussian Reconstruction Model (DrivingRecon)を紹介する。
ドライビングレコンは既存の手法に比べてシーンの再現性や新しいビュー合成を著しく向上させる。
論文 参考訳(メタデータ) (2024-12-12T08:10:31Z) - AIDOVECL: AI-generated Dataset of Outpainted Vehicles for Eye-level Classification and Localization [0.0]
この研究は、注釈付きデータ不足の問題に対処するために、アウトペイントを活用する新しいアプローチを導入している。
この技術は、自動運転、都市計画、環境モニタリングにおいて特に困難な課題に応用する。
塗装された車両による増強は、全体のパフォーマンス指標を最大8%改善し、未表現クラスの予測を最大20%向上させる。
論文 参考訳(メタデータ) (2024-10-31T16:46:23Z) - LidaRF: Delving into Lidar for Neural Radiance Field on Street Scenes [73.65115834242866]
光リアリスティックシミュレーションは、自律運転のようなアプリケーションにおいて重要な役割を果たす。
しかし, コリニアカメラの動作やスペーサーのサンプリングにより, 街路景観の再現性は低下する。
街路面のNeRF品質を改善するために,Lidarデータのより優れた利用を可能にするいくつかの知見を提案する。
論文 参考訳(メタデータ) (2024-05-01T23:07:12Z) - Street Gaussians: Modeling Dynamic Urban Scenes with Gaussian Splatting [32.59889755381453]
近年の手法では、走行中の車両のポーズをアニメーションに取り入れてNeRFを拡張し、ダイナミックな街路シーンのリアルな視認を可能にしている。
この制限に対処する新たな明示的なシーン表現であるStreet Gaussiansを紹介します。
提案手法は,全データセットで常に最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-01-02T18:59:55Z) - Factorized Inverse Path Tracing for Efficient and Accurate
Material-Lighting Estimation [97.0195314255101]
逆経路追跡は計算に高価であり、反射と放出の間に曖昧さが存在する。
当社のFactized Inverse Path Tracing (FIPT) は, ファクタリング光輸送の定式化によってこれらの課題に対処する。
提案アルゴリズムは, 従来よりも高精度な材料と照明の最適化を実現し, あいまいさの解消に有効である。
論文 参考訳(メタデータ) (2023-04-12T07:46:05Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Fast Synthetic LiDAR Rendering via Spherical UV Unwrapping of
Equirectangular Z-Buffer Images [3.098294101216779]
本稿では,1フレーム当たり1秒の高速レンダリングでLiDAR点雲をシミュレートする新しい手法を提案する。
提案手法は、等角形状Zバッファ画像の球面紫外解離に依存する。
複雑な都市景観の誤差は, 2~120mの範囲で4.28cm, エルロディネHDL64-E2パラメータで報告されている。
論文 参考訳(メタデータ) (2020-06-08T04:07:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。