論文の概要: Generative LiDAR Editing with Controllable Novel Object Layouts
- arxiv url: http://arxiv.org/abs/2412.00592v1
- Date: Sat, 30 Nov 2024 21:39:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 21:11:22.058688
- Title: Generative LiDAR Editing with Controllable Novel Object Layouts
- Title(参考訳): 制御可能な新しいオブジェクトレイアウトを用いた世代別LiDAR編集
- Authors: Shing-Hei Ho, Bao Thach, Minghan Zhu,
- Abstract要約: 本研究では,現実的な背景環境を維持しつつ,現実のLidarスキャンを新たなオブジェクトレイアウトで編集するフレームワークを提案する。
Lidarポイントクラウドをスクラッチから生成する合成データ生成フレームワークと比較して、当社のフレームワークは、所定のバックグラウンド環境での新しいシナリオ生成に焦点を当てている。
実験により,本フレームワークはオブジェクトレイアウトの変更を伴ってリアルなLidarスキャンを生成し,Lidarベースの自動運転システムの開発に有効であることが確認された。
- 参考スコア(独自算出の注目度): 1.249418440326334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a framework to edit real-world Lidar scans with novel object layouts while preserving a realistic background environment. Compared to the synthetic data generation frameworks where Lidar point clouds are generated from scratch, our framework focuses on new scenario generation in a given background environment, and our method also provides labels for the generated data. This approach ensures the generated data remains relevant to the specific environment, aiding both the development and the evaluation of algorithms in real-world scenarios. Compared with novel view synthesis, our framework allows the creation of counterfactual scenarios with significant changes in the object layout and does not rely on multi-frame optimization. In our framework, the object removal and insertion are supported by generative background inpainting and object point cloud completion, and the entire pipeline is built upon spherical voxelization, which realizes the correct Lidar projective geometry by construction. Experiments show that our framework generates realistic Lidar scans with object layout changes and benefits the development of Lidar-based self-driving systems.
- Abstract(参考訳): 本研究では,現実的な背景環境を維持しつつ,現実のLidarスキャンを新たなオブジェクトレイアウトで編集するフレームワークを提案する。
リダーポイントクラウドをスクラッチから生成する合成データ生成フレームワークと比較して,本フレームワークは,所定の背景環境における新たなシナリオ生成に焦点を当て,生成したデータのラベルも提供する。
このアプローチは、生成されたデータが特定の環境に関連し続け、現実世界のシナリオにおけるアルゴリズムの開発と評価の両方を支援する。
我々のフレームワークは、新しいビュー合成と比較して、オブジェクトレイアウトに大きな変更を加えて、マルチフレーム最適化に頼らずに、事実上のシナリオを作成することができる。
本フレームワークでは, 物体の除去と挿入を生成背景の塗装とオブジェクト点雲の完成によって支援し, パイプライン全体は球面ボキセル化に基づいて構築され, 建設により正しいライダー射影形状を実現する。
実験により,本フレームワークはオブジェクトレイアウトの変更を伴ってリアルなLidarスキャンを生成し,Lidarベースの自動運転システムの開発に有効であることが確認された。
関連論文リスト
- LiDARCrafter: Dynamic 4D World Modeling from LiDAR Sequences [10.426609103049572]
LiDARCrafterは、4D LiDARの生成と編集のための統一されたフレームワークである。
あらゆるレベルの忠実さ、可制御性、時間的一貫性において、最先端のパフォーマンスを達成する。
コードとベンチマークはコミュニティにリリースされている。
論文 参考訳(メタデータ) (2025-08-05T17:59:56Z) - La La LiDAR: Large-Scale Layout Generation from LiDAR Data [45.5317990948996]
現実的なLiDARシーンの制御可能な生成は、自律運転やロボット工学といった応用に不可欠である。
レイアウト誘導型大規模LiDAR生成モデル(La La LiDAR)を提案する。
La La LiDARは、LiDAR生成と下流認識の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-05T17:59:55Z) - SN-LiDAR: Semantic Neural Fields for Novel Space-time View LiDAR Synthesis [11.615282010184917]
SN-LiDARは,高精度なセマンティックセグメンテーション,高品質な幾何再構成,リアルなLiDAR合成を共同で行う手法である。
具体的には,多フレーム点群からグローバルな特徴を抽出するために,粗い平面グリッド特徴表現を用いる。
セマンティックKITTIとKITTI-360の実験は、意味的および幾何学的再構成におけるSN-LiDARの優位性を実証している。
論文 参考訳(メタデータ) (2025-04-11T08:51:23Z) - OLiDM: Object-aware LiDAR Diffusion Models for Autonomous Driving [74.06413946934002]
OLiDMはオブジェクトとシーンレベルの両方で高忠実度LiDARデータを生成できる新しいフレームワークである。
OLiDMは、Object-Scene Progressive Generation (OPG) モジュールとObject Semantic Alignment (OSA) モジュールの2つの重要なコンポーネントで構成されている。
OPGは、ユーザ固有のプロンプトに適応して、望まれる前景オブジェクトを生成し、その後、シーン生成の条件として使用される。
OSAは、前景のオブジェクトと背景のシーンとの不一致を是正し、生成されたオブジェクトの全体的な品質を高めることを目的としている。
論文 参考訳(メタデータ) (2024-12-23T02:43:29Z) - LiDAR-RT: Gaussian-based Ray Tracing for Dynamic LiDAR Re-simulation [31.79143254487969]
LiDAR-RTは、リアルタイムで物理的に正確なLiDARの再シミュレーションをサポートする新しいフレームワークである。
私たちの主な貢献は、効率的で効果的なレンダリングパイプラインの開発です。
我々のフレームワークは、フレキシブルなシーン編集操作と様々なセンサー構成でリアルなレンダリングをサポートしています。
論文 参考訳(メタデータ) (2024-12-19T18:58:36Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Objects With Lighting: A Real-World Dataset for Evaluating Reconstruction and Rendering for Object Relighting [16.938779241290735]
写真からオブジェクトを再構成し、仮想的に新しい環境に配置することは、標準的な新しいビュー合成タスクを超えます。
この研究は、リライトのためのオブジェクトの再構築とレンダリングを測定するための実世界のデータセットを提供する。
論文 参考訳(メタデータ) (2024-01-17T11:02:52Z) - ConstScene: Dataset and Model for Advancing Robust Semantic Segmentation
in Construction Environments [1.4070907500169874]
本稿では,建設現場に適したセマンティックセグメンテーションデータセットを提案する。
このデータセットは、オブジェクト検出モデルのトレーニングと評価を強化するように設計されている。
論文 参考訳(メタデータ) (2023-12-27T10:49:19Z) - Context-Aware Indoor Point Cloud Object Generation through User Instructions [6.398660996031915]
本稿では,その周辺環境とシームレスに統合された点雲オブジェクトを生成することができる,新しいエンドツーエンドのマルチモーダルディープニューラルネットワークを提案する。
我々のモデルは、これまで見えなかったオブジェクトレイアウトで新しい環境を作成できるようにすることで、シーン修正に革命をもたらす。
論文 参考訳(メタデータ) (2023-11-26T06:40:16Z) - CustomNet: Zero-shot Object Customization with Variable-Viewpoints in
Text-to-Image Diffusion Models [85.69959024572363]
CustomNetは、オブジェクトのカスタマイズプロセスに3Dの新しいビュー合成機能を明示的に組み込んだ、新しいオブジェクトカスタマイズアプローチである。
テキスト記述や特定のユーザ定義画像による位置制御とフレキシブルな背景制御を実現するための繊細な設計を導入する。
本手法は,テスト時間最適化を伴わないゼロショットオブジェクトのカスタマイズを容易にし,視点,位置,背景を同時制御する。
論文 参考訳(メタデータ) (2023-10-30T17:50:14Z) - LAW-Diffusion: Complex Scene Generation by Diffusion with Layouts [107.11267074981905]
LAW拡散(LAW-Diffusion)と呼ばれる意味制御可能なレイアウト・AWare拡散モデルを提案する。
LAW拡散は、特にコヒーレントな対象関係を持つ最先端の生成性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-08-13T08:06:18Z) - Real-Aug: Realistic Scene Synthesis for LiDAR Augmentation in 3D Object
Detection [45.102312149413855]
生成したデータに対して最大制御性を提供する合成ベースLiDARデータ拡張手法(いわゆるGT-Aug)について検討する。
本稿では,現実的なLiDARスキャンの生成を優先する合成に基づく拡張手法であるReal-Augを提案する。
nuScenes テストセット上で, 最先端の 0.744 NDS と 0.702 mAP を達成する。
論文 参考訳(メタデータ) (2023-05-22T09:24:55Z) - Neural LiDAR Fields for Novel View Synthesis [80.45307792404685]
本稿では,LiDAR計測からニューラルネットワークシーンの表現を最適化する手法であるLiDAR(NFL)について述べる。
NFLは、ニューラルネットワークのレンダリングパワーと、LiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせる。
合成されたビューの改良されたリアリズムは、ドメインギャップを実際のスキャンに狭め、より良い登録とセマンティックセグメンテーション性能に変換することを示す。
論文 参考訳(メタデータ) (2023-05-02T17:55:38Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - OpenRooms: An End-to-End Open Framework for Photorealistic Indoor Scene
Datasets [103.54691385842314]
本研究では,屋内シーンの大規模フォトリアリスティックデータセットを作成するための新しいフレームワークを提案する。
私たちの目標は、データセット作成プロセスを広く利用できるようにすることです。
これにより、逆レンダリング、シーン理解、ロボット工学における重要な応用が可能になる。
論文 参考訳(メタデータ) (2020-07-25T06:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。