論文の概要: Generative LiDAR Editing with Controllable Novel Object Layouts
- arxiv url: http://arxiv.org/abs/2412.00592v1
- Date: Sat, 30 Nov 2024 21:39:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:51:16.704421
- Title: Generative LiDAR Editing with Controllable Novel Object Layouts
- Title(参考訳): 制御可能な新しいオブジェクトレイアウトを用いた世代別LiDAR編集
- Authors: Shing-Hei Ho, Bao Thach, Minghan Zhu,
- Abstract要約: 本研究では,現実的な背景環境を維持しつつ,現実のLidarスキャンを新たなオブジェクトレイアウトで編集するフレームワークを提案する。
Lidarポイントクラウドをスクラッチから生成する合成データ生成フレームワークと比較して、当社のフレームワークは、所定のバックグラウンド環境での新しいシナリオ生成に焦点を当てている。
実験により,本フレームワークはオブジェクトレイアウトの変更を伴ってリアルなLidarスキャンを生成し,Lidarベースの自動運転システムの開発に有効であることが確認された。
- 参考スコア(独自算出の注目度): 1.249418440326334
- License:
- Abstract: We propose a framework to edit real-world Lidar scans with novel object layouts while preserving a realistic background environment. Compared to the synthetic data generation frameworks where Lidar point clouds are generated from scratch, our framework focuses on new scenario generation in a given background environment, and our method also provides labels for the generated data. This approach ensures the generated data remains relevant to the specific environment, aiding both the development and the evaluation of algorithms in real-world scenarios. Compared with novel view synthesis, our framework allows the creation of counterfactual scenarios with significant changes in the object layout and does not rely on multi-frame optimization. In our framework, the object removal and insertion are supported by generative background inpainting and object point cloud completion, and the entire pipeline is built upon spherical voxelization, which realizes the correct Lidar projective geometry by construction. Experiments show that our framework generates realistic Lidar scans with object layout changes and benefits the development of Lidar-based self-driving systems.
- Abstract(参考訳): 本研究では,現実的な背景環境を維持しつつ,現実のLidarスキャンを新たなオブジェクトレイアウトで編集するフレームワークを提案する。
リダーポイントクラウドをスクラッチから生成する合成データ生成フレームワークと比較して,本フレームワークは,所定の背景環境における新たなシナリオ生成に焦点を当て,生成したデータのラベルも提供する。
このアプローチは、生成されたデータが特定の環境に関連し続け、現実世界のシナリオにおけるアルゴリズムの開発と評価の両方を支援する。
我々のフレームワークは、新しいビュー合成と比較して、オブジェクトレイアウトに大きな変更を加えて、マルチフレーム最適化に頼らずに、事実上のシナリオを作成することができる。
本フレームワークでは, 物体の除去と挿入を生成背景の塗装とオブジェクト点雲の完成によって支援し, パイプライン全体は球面ボキセル化に基づいて構築され, 建設により正しいライダー射影形状を実現する。
実験により,本フレームワークはオブジェクトレイアウトの変更を伴ってリアルなLidarスキャンを生成し,Lidarベースの自動運転システムの開発に有効であることが確認された。
関連論文リスト
- Objects With Lighting: A Real-World Dataset for Evaluating Reconstruction and Rendering for Object Relighting [16.938779241290735]
写真からオブジェクトを再構成し、仮想的に新しい環境に配置することは、標準的な新しいビュー合成タスクを超えます。
この研究は、リライトのためのオブジェクトの再構築とレンダリングを測定するための実世界のデータセットを提供する。
論文 参考訳(メタデータ) (2024-01-17T11:02:52Z) - ConstScene: Dataset and Model for Advancing Robust Semantic Segmentation
in Construction Environments [1.4070907500169874]
本稿では,建設現場に適したセマンティックセグメンテーションデータセットを提案する。
このデータセットは、オブジェクト検出モデルのトレーニングと評価を強化するように設計されている。
論文 参考訳(メタデータ) (2023-12-27T10:49:19Z) - Context-Aware Indoor Point Cloud Object Generation through User Instructions [6.398660996031915]
本稿では,その周辺環境とシームレスに統合された点雲オブジェクトを生成することができる,新しいエンドツーエンドのマルチモーダルディープニューラルネットワークを提案する。
我々のモデルは、これまで見えなかったオブジェクトレイアウトで新しい環境を作成できるようにすることで、シーン修正に革命をもたらす。
論文 参考訳(メタデータ) (2023-11-26T06:40:16Z) - CustomNet: Zero-shot Object Customization with Variable-Viewpoints in
Text-to-Image Diffusion Models [85.69959024572363]
CustomNetは、オブジェクトのカスタマイズプロセスに3Dの新しいビュー合成機能を明示的に組み込んだ、新しいオブジェクトカスタマイズアプローチである。
テキスト記述や特定のユーザ定義画像による位置制御とフレキシブルな背景制御を実現するための繊細な設計を導入する。
本手法は,テスト時間最適化を伴わないゼロショットオブジェクトのカスタマイズを容易にし,視点,位置,背景を同時制御する。
論文 参考訳(メタデータ) (2023-10-30T17:50:14Z) - LAW-Diffusion: Complex Scene Generation by Diffusion with Layouts [107.11267074981905]
LAW拡散(LAW-Diffusion)と呼ばれる意味制御可能なレイアウト・AWare拡散モデルを提案する。
LAW拡散は、特にコヒーレントな対象関係を持つ最先端の生成性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-08-13T08:06:18Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - OpenRooms: An End-to-End Open Framework for Photorealistic Indoor Scene
Datasets [103.54691385842314]
本研究では,屋内シーンの大規模フォトリアリスティックデータセットを作成するための新しいフレームワークを提案する。
私たちの目標は、データセット作成プロセスを広く利用できるようにすることです。
これにより、逆レンダリング、シーン理解、ロボット工学における重要な応用が可能になる。
論文 参考訳(メタデータ) (2020-07-25T06:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。