論文の概要: LiDARDraft: Generating LiDAR Point Cloud from Versatile Inputs
- arxiv url: http://arxiv.org/abs/2512.20105v1
- Date: Tue, 23 Dec 2025 07:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.778329
- Title: LiDARDraft: Generating LiDAR Point Cloud from Versatile Inputs
- Title(参考訳): LiDARraft:Versatile入力からLiDARポイントクラウドを生成する
- Authors: Haiyun Wei, Fan Lu, Yunwei Zhu, Zehan Zheng, Weiyi Xue, Lin Shao, Xudong Zhang, Ya Wu, Rong Fu, Guang Chen,
- Abstract要約: 我々は,現実的で多様なLiDAR点雲を生成するためにLiDARDraftを提案する。
3Dレイアウトは、様々なユーザー入力から自明に生成できる。
我々は、レンジマップベースのコントロールネットを使用して、LiDARポイントクラウド生成をガイドします。
- 参考スコア(独自算出の注目度): 16.062937048950946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating realistic and diverse LiDAR point clouds is crucial for autonomous driving simulation. Although previous methods achieve LiDAR point cloud generation from user inputs, they struggle to attain high-quality results while enabling versatile controllability, due to the imbalance between the complex distribution of LiDAR point clouds and the simple control signals. To address the limitation, we propose LiDARDraft, which utilizes the 3D layout to build a bridge between versatile conditional signals and LiDAR point clouds. The 3D layout can be trivially generated from various user inputs such as textual descriptions and images. Specifically, we represent text, images, and point clouds as unified 3D layouts, which are further transformed into semantic and depth control signals. Then, we employ a rangemap-based ControlNet to guide LiDAR point cloud generation. This pixel-level alignment approach demonstrates excellent performance in controllable LiDAR point clouds generation, enabling "simulation from scratch", allowing self-driving environments to be created from arbitrary textual descriptions, images and sketches.
- Abstract(参考訳): 現実的で多様なLiDAR点雲の生成は、自律運転シミュレーションに不可欠である。
従来の方法はユーザ入力からLiDARポイントクラウドを生成するが、LiDARポイントクラウドの複雑な分布と単純な制御信号の不均衡のため、汎用性を確保しつつ高品質な結果を得るのに苦慮している。
この制限に対処するため、3次元レイアウトを用いて多目的条件信号とLiDAR点雲の間の橋梁を構築するLiDARDraftを提案する。
3Dレイアウトは、テキスト記述や画像など、さまざまなユーザ入力から自明に生成することができる。
具体的には、テキスト、画像、点雲を統一された3次元レイアウトとして表現し、セマンティックおよび深度制御信号に変換する。
次に、レンジマップベースのコントロールネットを用いて、LiDARポイントクラウド生成をガイドする。
このピクセルレベルのアライメントアプローチは、制御可能なLiDARポイントクラウドの生成において優れたパフォーマンスを示し、"スクラッチからのシミュレーション"を可能にし、任意のテキスト記述、画像、スケッチから自動運転環境を作成することができる。
関連論文リスト
- PVNet: Point-Voxel Interaction LiDAR Scene Upsampling Via Diffusion Models [57.02789948234898]
拡散モデルに基づく点-ボクセル相互作用フレームワークであるPVNetを提案する。
具体的には、スパース点雲を誘導条件とし、近くのフレームから得られた合成点雲を入力とする。
さらに,各アップサンプリング点の環境認識能力を効率よく向上する点とボクセルの両方の機能を統合する点とボクセルの相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2025-08-23T14:55:03Z) - TexLiDAR: Automated Text Understanding for Panoramic LiDAR Data [0.6144680854063939]
LidarCLIPのようなテキストとLiDARデータを接続する努力は、主にCLIPテキストイメージスペースに3Dポイントクラウドを埋め込むことに重点を置いている。
3次元点雲の代わりにOS1センサによって生成された2次元画像を活用することで、LiDARデータをテキストで接続する代替手法を提案する。
論文 参考訳(メタデータ) (2025-02-05T19:41:06Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - NeRF-LiDAR: Generating Realistic LiDAR Point Clouds with Neural Radiance
Fields [20.887421720818892]
実世界の情報を利用してリアルなLIDAR点雲を生成する新しいLiDARシミュレーション手法であるNeRF-LIDARを提案する。
我々は,生成したLiDAR点雲上で異なる3次元セグメンテーションモデルをトレーニングすることにより,NeRF-LiDARの有効性を検証する。
論文 参考訳(メタデータ) (2023-04-28T12:41:28Z) - PolarMix: A General Data Augmentation Technique for LiDAR Point Clouds [100.03877236181546]
PolarMixは、シンプルで汎用的なポイントクラウド拡張技術である。
様々な3Dディープアーキテクチャのプラグイン・アンド・プレイとして機能し、教師なしのドメイン適応にも適しています。
論文 参考訳(メタデータ) (2022-07-30T13:52:19Z) - Lateral Ego-Vehicle Control without Supervision using Point Clouds [50.40632021583213]
既存の視覚に基づく横方向の車両制御に対する教師付きアプローチは、RGB画像を適切な操舵コマンドに直接マッピングすることができる。
本稿では、横方向の車両制御のための、より堅牢でスケーラブルなモデルをトレーニングするためのフレームワークを提案する。
オンライン実験により,本手法の性能は教師付きモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-03-20T21:57:32Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。