論文の概要: Range-Edit: Semantic Mask Guided Outdoor LiDAR Scene Editing
- arxiv url: http://arxiv.org/abs/2511.17269v1
- Date: Fri, 21 Nov 2025 14:16:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.059453
- Title: Range-Edit: Semantic Mask Guided Outdoor LiDAR Scene Editing
- Title(参考訳): Range-Edit:セマンティックマスクガイド付き屋外LiDARシーン編集
- Authors: Suchetan G. Uppur, Hemant Kumar, Vaibhav Kumar,
- Abstract要約: 自律運転とナビゲーションシステムのトレーニングには、大規模で多様なポイントクラウドデータセットが必要である。
現在の方法は、手作りの3D仮想環境内のポイントクラウドデータをシミュレーションすることに依存している。
本研究では,現実世界のLiDARスキャンを編集することで議論される問題に対処する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 8.309247096255529
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Training autonomous driving and navigation systems requires large and diverse point cloud datasets that capture complex edge case scenarios from various dynamic urban settings. Acquiring such diverse scenarios from real-world point cloud data, especially for critical edge cases, is challenging, which restricts system generalization and robustness. Current methods rely on simulating point cloud data within handcrafted 3D virtual environments, which is time-consuming, computationally expensive, and often fails to fully capture the complexity of real-world scenes. To address some of these issues, this research proposes a novel approach that addresses the problem discussed by editing real-world LiDAR scans using semantic mask-based guidance to generate novel synthetic LiDAR point clouds. We incorporate range image projection and semantic mask conditioning to achieve diffusion-based generation. Point clouds are transformed to 2D range view images, which are used as an intermediate representation to enable semantic editing using convex hull-based semantic masks. These masks guide the generation process by providing information on the dimensions, orientations, and locations of objects in the real environment, ensuring geometric consistency and realism. This approach demonstrates high-quality LiDAR point cloud generation, capable of producing complex edge cases and dynamic scenes, as validated on the KITTI-360 dataset. This offers a cost-effective and scalable solution for generating diverse LiDAR data, a step toward improving the robustness of autonomous driving systems.
- Abstract(参考訳): 自動運転とナビゲーションシステムのトレーニングには、さまざまな動的な都市環境から複雑なエッジケースシナリオをキャプチャする、大規模で多様なポイントクラウドデータセットが必要である。
現実のポイントクラウドデータ、特にクリティカルエッジケースからこのような多様なシナリオを取得することは、システムの一般化とロバスト性を制限することが困難である。
現在の方法は、手作りの3D仮想環境内のポイントクラウドデータをシミュレーションすることに依存している。
これらの課題に対処するため,本研究では,セマンティックマスクに基づくガイダンスを用いて現実のLiDARスキャンを編集し,新たな合成LiDAR点群を生成することで議論される問題に対処する新しいアプローチを提案する。
拡散に基づく生成を実現するために、範囲画像投影とセマンティックマスク条件付けを組み込んだ。
点雲は2Dレンジビューイメージに変換され、中間表現として使用され、凸殻ベースのセマンティックマスクを用いたセマンティック編集を可能にする。
これらのマスクは、実際の環境における物体の寸法、向き、位置に関する情報を提供し、幾何学的一貫性とリアリズムを確保することによって生成過程を導く。
このアプローチは、KITTI-360データセットで検証されているように、複雑なエッジケースと動的シーンを生成することができる高品質なLiDARポイントクラウド生成を実証する。
これにより、さまざまなLiDARデータを生成するためのコスト効率が高くスケーラブルなソリューションが提供される。
関連論文リスト
- Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - PVNet: Point-Voxel Interaction LiDAR Scene Upsampling Via Diffusion Models [57.02789948234898]
拡散モデルに基づく点-ボクセル相互作用フレームワークであるPVNetを提案する。
具体的には、スパース点雲を誘導条件とし、近くのフレームから得られた合成点雲を入力とする。
さらに,各アップサンプリング点の環境認識能力を効率よく向上する点とボクセルの両方の機能を統合する点とボクセルの相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2025-08-23T14:55:03Z) - LPRnet: A self-supervised registration network for LiDAR and photogrammetric point clouds [38.42527849407057]
LiDARとフォトグラムは、それぞれポイントクラウド取得のためのアクティブおよびパッシブリモートセンシング技術である。
感知機構、空間分布、座標系に根本的な違いがあるため、それらの点雲は密度、精度、ノイズ、重なり合いにおいて大きな違いを示す。
本稿では, マスク付きオートエンコーダをベースとした自己教師型登録ネットワークを提案し, 異種LiDARと光グラム点雲に着目した。
論文 参考訳(メタデータ) (2025-01-10T02:36:37Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - TULIP: Transformer for Upsampling of LiDAR Point Clouds [32.77657816997911]
LiDAR Upは、ロボットや自動運転車の認識システムにとって難しいタスクだ。
近年の研究では、3次元ユークリッド空間からのLiDARデータを2次元画像空間の超解像問題に変換することでこの問題を解決することを提案する。
低分解能LiDAR入力から高分解能LiDAR点雲を再構成する新しい方法であるTジオメトリを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:43:28Z) - PolarMix: A General Data Augmentation Technique for LiDAR Point Clouds [100.03877236181546]
PolarMixは、シンプルで汎用的なポイントクラウド拡張技術である。
様々な3Dディープアーキテクチャのプラグイン・アンド・プレイとして機能し、教師なしのドメイン適応にも適しています。
論文 参考訳(メタデータ) (2022-07-30T13:52:19Z) - ePointDA: An End-to-End Simulation-to-Real Domain Adaptation Framework
for LiDAR Point Cloud Segmentation [111.56730703473411]
LiDARデータ上でディープニューラルネットワーク(DNN)をトレーニングするには、大規模なポイントワイドアノテーションが必要である。
シミュレーション・トゥ・リアル・ドメイン適応(SRDA)は、DNNを無制限の合成データと自動生成されたラベルで訓練する。
ePointDAは、自己教師付きドロップアウトノイズレンダリング、統計不変および空間適応型特徴アライメント、転送可能なセグメンテーション学習の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-09-07T23:46:08Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。