論文の概要: LiDARDraft: Generating LiDAR Point Cloud from Versatile Inputs
- arxiv url: http://arxiv.org/abs/2512.20105v1
- Date: Tue, 23 Dec 2025 07:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.778329
- Title: LiDARDraft: Generating LiDAR Point Cloud from Versatile Inputs
- Title(参考訳): LiDARraft:Versatile入力からLiDARポイントクラウドを生成する
- Authors: Haiyun Wei, Fan Lu, Yunwei Zhu, Zehan Zheng, Weiyi Xue, Lin Shao, Xudong Zhang, Ya Wu, Rong Fu, Guang Chen,
- Abstract要約: 我々は,現実的で多様なLiDAR点雲を生成するためにLiDARDraftを提案する。
3Dレイアウトは、様々なユーザー入力から自明に生成できる。
我々は、レンジマップベースのコントロールネットを使用して、LiDARポイントクラウド生成をガイドします。
- 参考スコア(独自算出の注目度): 16.062937048950946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating realistic and diverse LiDAR point clouds is crucial for autonomous driving simulation. Although previous methods achieve LiDAR point cloud generation from user inputs, they struggle to attain high-quality results while enabling versatile controllability, due to the imbalance between the complex distribution of LiDAR point clouds and the simple control signals. To address the limitation, we propose LiDARDraft, which utilizes the 3D layout to build a bridge between versatile conditional signals and LiDAR point clouds. The 3D layout can be trivially generated from various user inputs such as textual descriptions and images. Specifically, we represent text, images, and point clouds as unified 3D layouts, which are further transformed into semantic and depth control signals. Then, we employ a rangemap-based ControlNet to guide LiDAR point cloud generation. This pixel-level alignment approach demonstrates excellent performance in controllable LiDAR point clouds generation, enabling "simulation from scratch", allowing self-driving environments to be created from arbitrary textual descriptions, images and sketches.
- Abstract(参考訳): 現実的で多様なLiDAR点雲の生成は、自律運転シミュレーションに不可欠である。
従来の方法はユーザ入力からLiDARポイントクラウドを生成するが、LiDARポイントクラウドの複雑な分布と単純な制御信号の不均衡のため、汎用性を確保しつつ高品質な結果を得るのに苦慮している。
この制限に対処するため、3次元レイアウトを用いて多目的条件信号とLiDAR点雲の間の橋梁を構築するLiDARDraftを提案する。
3Dレイアウトは、テキスト記述や画像など、さまざまなユーザ入力から自明に生成することができる。
具体的には、テキスト、画像、点雲を統一された3次元レイアウトとして表現し、セマンティックおよび深度制御信号に変換する。
次に、レンジマップベースのコントロールネットを用いて、LiDARポイントクラウド生成をガイドする。
このピクセルレベルのアライメントアプローチは、制御可能なLiDARポイントクラウドの生成において優れたパフォーマンスを示し、"スクラッチからのシミュレーション"を可能にし、任意のテキスト記述、画像、スケッチから自動運転環境を作成することができる。
関連論文リスト
- PVNet: Point-Voxel Interaction LiDAR Scene Upsampling Via Diffusion Models [57.02789948234898]
拡散モデルに基づく点-ボクセル相互作用フレームワークであるPVNetを提案する。
具体的には、スパース点雲を誘導条件とし、近くのフレームから得られた合成点雲を入力とする。
さらに,各アップサンプリング点の環境認識能力を効率よく向上する点とボクセルの両方の機能を統合する点とボクセルの相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2025-08-23T14:55:03Z) - TexLiDAR: Automated Text Understanding for Panoramic LiDAR Data [0.6144680854063939]
LidarCLIPのようなテキストとLiDARデータを接続する努力は、主にCLIPテキストイメージスペースに3Dポイントクラウドを埋め込むことに重点を置いている。
3次元点雲の代わりにOS1センサによって生成された2次元画像を活用することで、LiDARデータをテキストで接続する代替手法を提案する。
論文 参考訳(メタデータ) (2025-02-05T19:41:06Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Self-supervised Learning of LiDAR 3D Point Clouds via 2D-3D Neural Calibration [107.61458720202984]
本稿では,自律走行シーンにおける3次元知覚を高めるための,新しい自己教師型学習フレームワークを提案する。
本稿では,画像とポイントクラウドデータの領域ギャップを埋めるために,学習可能な変換アライメントを提案する。
我々は剛性ポーズを推定するために密度の高い2D-3D対応を確立する。
論文 参考訳(メタデータ) (2024-01-23T02:41:06Z) - TULIP: Transformer for Upsampling of LiDAR Point Clouds [32.77657816997911]
LiDAR Upは、ロボットや自動運転車の認識システムにとって難しいタスクだ。
近年の研究では、3次元ユークリッド空間からのLiDARデータを2次元画像空間の超解像問題に変換することでこの問題を解決することを提案する。
低分解能LiDAR入力から高分解能LiDAR点雲を再構成する新しい方法であるTジオメトリを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:43:28Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - Advancements in 3D Lane Detection Using LiDAR Point Clouds: From Data Collection to Model Development [10.78971892551972]
LiSV-3DLaneは大規模な3Dレーンデータセットで、20kフレームのサラウンドビューのLiDAR点雲と豊富なセマンティックアノテーションから構成される。
本稿では,LiDARを用いた新しい3次元車線検出モデルLiLaDetを提案し,LiDAR点雲の空間的幾何学的学習をBird's Eye View (BEV) に基づく車線識別に取り入れた。
論文 参考訳(メタデータ) (2023-09-24T09:58:49Z) - NeRF-LiDAR: Generating Realistic LiDAR Point Clouds with Neural Radiance
Fields [20.887421720818892]
実世界の情報を利用してリアルなLIDAR点雲を生成する新しいLiDARシミュレーション手法であるNeRF-LIDARを提案する。
我々は,生成したLiDAR点雲上で異なる3次元セグメンテーションモデルをトレーニングすることにより,NeRF-LiDARの有効性を検証する。
論文 参考訳(メタデータ) (2023-04-28T12:41:28Z) - PolarMix: A General Data Augmentation Technique for LiDAR Point Clouds [100.03877236181546]
PolarMixは、シンプルで汎用的なポイントクラウド拡張技術である。
様々な3Dディープアーキテクチャのプラグイン・アンド・プレイとして機能し、教師なしのドメイン適応にも適しています。
論文 参考訳(メタデータ) (2022-07-30T13:52:19Z) - Lateral Ego-Vehicle Control without Supervision using Point Clouds [50.40632021583213]
既存の視覚に基づく横方向の車両制御に対する教師付きアプローチは、RGB画像を適切な操舵コマンドに直接マッピングすることができる。
本稿では、横方向の車両制御のための、より堅牢でスケーラブルなモデルをトレーニングするためのフレームワークを提案する。
オンライン実験により,本手法の性能は教師付きモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-03-20T21:57:32Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。