論文の概要: LiDAR-EDIT: LiDAR Data Generation by Editing the Object Layouts in Real-World Scenes
- arxiv url: http://arxiv.org/abs/2412.00592v3
- Date: Sat, 24 May 2025 04:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 14:32:52.989355
- Title: LiDAR-EDIT: LiDAR Data Generation by Editing the Object Layouts in Real-World Scenes
- Title(参考訳): LiDAR-EDIT:現実世界におけるオブジェクトレイアウト編集によるLiDARデータ生成
- Authors: Shing-Hei Ho, Bao Thach, Minghan Zhu,
- Abstract要約: 我々は、自動運転のための合成LiDARデータを生成するための新しいパラダイムであるLiDAR-EDITを提案する。
本フレームワークは,背景環境の現実性を維持しつつ,新たなオブジェクトレイアウトを導入することで,現実のLiDARスキャンを編集する。
LiDARのポイントクラウドをゼロから生成するエンドツーエンドフレームワークと比較して、LiDAR-EDITはオブジェクトレイアウトを完全に制御する。
- 参考スコア(独自算出の注目度): 1.249418440326334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present LiDAR-EDIT, a novel paradigm for generating synthetic LiDAR data for autonomous driving. Our framework edits real-world LiDAR scans by introducing new object layouts while preserving the realism of the background environment. Compared to end-to-end frameworks that generate LiDAR point clouds from scratch, LiDAR-EDIT offers users full control over the object layout, including the number, type, and pose of objects, while keeping most of the original real-world background. Our method also provides object labels for the generated data. Compared to novel view synthesis techniques, our framework allows for the creation of counterfactual scenarios with object layouts significantly different from the original real-world scene. LiDAR-EDIT uses spherical voxelization to enforce correct LiDAR projective geometry in the generated point clouds by construction. During object removal and insertion, generative models are employed to fill the unseen background and object parts that were occluded in the original real LiDAR scans. Experimental results demonstrate that our framework produces realistic LiDAR scans with practical value for downstream tasks.
- Abstract(参考訳): 我々は、自動運転のための合成LiDARデータを生成するための新しいパラダイムであるLiDAR-EDITを提案する。
本フレームワークは,背景環境の現実性を維持しつつ,新たなオブジェクトレイアウトを導入することで,現実のLiDARスキャンを編集する。
LiDAR-EDITは、LiDARポイントクラウドをスクラッチから生成するエンドツーエンドフレームワークと比較して、オブジェクトの番号、型、ポーズを含むオブジェクトレイアウトを完全にコントロールし、元の現実世界の背景をほとんど保持する。
生成したデータに対してオブジェクトラベルも提供する。
新たなビュー合成技術と比較して,本フレームワークは,オブジェクトレイアウトが本来の現実のシーンと大きく異なる反現実的なシナリオの作成を可能にする。
LiDAR-EDITは球面ボキセル化を用いて、生成した点雲の正確なLiDAR射影幾何学を構築により強制する。
オブジェクトの除去と挿入の間、生成モデルは元の本物のLiDARスキャンに隠された、見えない背景とオブジェクトの部分を埋めるために使用される。
実験の結果,本フレームワークは下流タスクに実用的価値を持つ現実的なLiDARスキャンを生成することがわかった。
関連論文リスト
- Objects With Lighting: A Real-World Dataset for Evaluating Reconstruction and Rendering for Object Relighting [16.938779241290735]
写真からオブジェクトを再構成し、仮想的に新しい環境に配置することは、標準的な新しいビュー合成タスクを超えます。
この研究は、リライトのためのオブジェクトの再構築とレンダリングを測定するための実世界のデータセットを提供する。
論文 参考訳(メタデータ) (2024-01-17T11:02:52Z) - ConstScene: Dataset and Model for Advancing Robust Semantic Segmentation
in Construction Environments [1.4070907500169874]
本稿では,建設現場に適したセマンティックセグメンテーションデータセットを提案する。
このデータセットは、オブジェクト検出モデルのトレーニングと評価を強化するように設計されている。
論文 参考訳(メタデータ) (2023-12-27T10:49:19Z) - Context-Aware Indoor Point Cloud Object Generation through User Instructions [6.398660996031915]
本稿では,その周辺環境とシームレスに統合された点雲オブジェクトを生成することができる,新しいエンドツーエンドのマルチモーダルディープニューラルネットワークを提案する。
我々のモデルは、これまで見えなかったオブジェクトレイアウトで新しい環境を作成できるようにすることで、シーン修正に革命をもたらす。
論文 参考訳(メタデータ) (2023-11-26T06:40:16Z) - CustomNet: Zero-shot Object Customization with Variable-Viewpoints in
Text-to-Image Diffusion Models [85.69959024572363]
CustomNetは、オブジェクトのカスタマイズプロセスに3Dの新しいビュー合成機能を明示的に組み込んだ、新しいオブジェクトカスタマイズアプローチである。
テキスト記述や特定のユーザ定義画像による位置制御とフレキシブルな背景制御を実現するための繊細な設計を導入する。
本手法は,テスト時間最適化を伴わないゼロショットオブジェクトのカスタマイズを容易にし,視点,位置,背景を同時制御する。
論文 参考訳(メタデータ) (2023-10-30T17:50:14Z) - LAW-Diffusion: Complex Scene Generation by Diffusion with Layouts [107.11267074981905]
LAW拡散(LAW-Diffusion)と呼ばれる意味制御可能なレイアウト・AWare拡散モデルを提案する。
LAW拡散は、特にコヒーレントな対象関係を持つ最先端の生成性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-08-13T08:06:18Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - OpenRooms: An End-to-End Open Framework for Photorealistic Indoor Scene
Datasets [103.54691385842314]
本研究では,屋内シーンの大規模フォトリアリスティックデータセットを作成するための新しいフレームワークを提案する。
私たちの目標は、データセット作成プロセスを広く利用できるようにすることです。
これにより、逆レンダリング、シーン理解、ロボット工学における重要な応用が可能になる。
論文 参考訳(メタデータ) (2020-07-25T06:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。