論文の概要: SN-LiDAR: Semantic Neural Fields for Novel Space-time View LiDAR Synthesis
- arxiv url: http://arxiv.org/abs/2504.08361v1
- Date: Fri, 11 Apr 2025 08:51:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:18:04.649839
- Title: SN-LiDAR: Semantic Neural Fields for Novel Space-time View LiDAR Synthesis
- Title(参考訳): SN-LiDAR:新しい時空ビューLiDAR合成のための意味論的ニューラルネットワーク
- Authors: Yi Chen, Tianchen Deng, Wentao Zhao, Xiaoning Wang, Wenqian Xi, Weidong Chen, Jingchuan Wang,
- Abstract要約: SN-LiDARは,高精度なセマンティックセグメンテーション,高品質な幾何再構成,リアルなLiDAR合成を共同で行う手法である。
具体的には,多フレーム点群からグローバルな特徴を抽出するために,粗い平面グリッド特徴表現を用いる。
セマンティックKITTIとKITTI-360の実験は、意味的および幾何学的再構成におけるSN-LiDARの優位性を実証している。
- 参考スコア(独自算出の注目度): 11.615282010184917
- License:
- Abstract: Recent research has begun exploring novel view synthesis (NVS) for LiDAR point clouds, aiming to generate realistic LiDAR scans from unseen viewpoints. However, most existing approaches do not reconstruct semantic labels, which are crucial for many downstream applications such as autonomous driving and robotic perception. Unlike images, which benefit from powerful segmentation models, LiDAR point clouds lack such large-scale pre-trained models, making semantic annotation time-consuming and labor-intensive. To address this challenge, we propose SN-LiDAR, a method that jointly performs accurate semantic segmentation, high-quality geometric reconstruction, and realistic LiDAR synthesis. Specifically, we employ a coarse-to-fine planar-grid feature representation to extract global features from multi-frame point clouds and leverage a CNN-based encoder to extract local semantic features from the current frame point cloud. Extensive experiments on SemanticKITTI and KITTI-360 demonstrate the superiority of SN-LiDAR in both semantic and geometric reconstruction, effectively handling dynamic objects and large-scale scenes. Codes will be available on https://github.com/dtc111111/SN-Lidar.
- Abstract(参考訳): 最近の研究は、目に見えない視点から現実的なLiDARスキャンを生成することを目的として、LiDAR点雲のための新しいビュー合成(NVS)の研究を始めている。
しかし、既存のほとんどのアプローチはセマンティックラベルを再構築していない。
強力なセグメンテーションモデルの恩恵を受ける画像とは異なり、LiDARポイントクラウドにはそのような大規模な事前訓練されたモデルがないため、セマンティックアノテーションの時間がかかり、労力がかかる。
そこで我々はSN-LiDARを提案する。SN-LiDARは,高精度なセマンティックセグメンテーション,高品質な幾何再構成,リアルなLiDAR合成を共同で行う手法である。
具体的には、多フレーム点クラウドからグローバルな特徴を抽出し、CNNベースのエンコーダを利用して、現在のフレーム点クラウドから局所的な特徴を抽出する。
SemanticKITTIとKITTI-360の大規模な実験は、意味的および幾何学的再構成の両方においてSN-LiDARの優位性を示し、動的オブジェクトと大規模シーンを効果的に扱う。
コードはhttps://github.com/dtc1111/SN-Lidar.comで入手できる。
関連論文リスト
- GS-LiDAR: Generating Realistic LiDAR Point Clouds with Panoramic Gaussian Splatting [3.376357029373187]
GS-LiDARは、パノラマガウススプラッティングで現実的なLiDAR点雲を生成するための新しいフレームワークである。
我々は,パノラマLiDAR監督によって導かれる光線スプラット交差を明示する新しいパノラマレンダリング手法を提案する。
論文 参考訳(メタデータ) (2025-01-22T11:21:20Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - LiDAR4D: Dynamic Neural Fields for Novel Space-time View LiDAR Synthesis [11.395101473757443]
我々は,新しい時空LiDARビュー合成のための微分可能なLiDAR専用フレームワークLiDAR4Dを提案する。
空間幅と大規模特性を考慮した4次元ハイブリッド表現を多平面・格子特徴と組み合わせて設計する。
LiDAR点雲の現実的な合成のために、領域横断パターンを保存するために、レイドロップ確率のグローバル最適化を取り入れる。
論文 参考訳(メタデータ) (2024-04-03T13:39:29Z) - Neural LiDAR Fields for Novel View Synthesis [80.45307792404685]
本稿では,LiDAR計測からニューラルネットワークシーンの表現を最適化する手法であるLiDAR(NFL)について述べる。
NFLは、ニューラルネットワークのレンダリングパワーと、LiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせる。
合成されたビューの改良されたリアリズムは、ドメインギャップを実際のスキャンに狭め、より良い登録とセマンティックセグメンテーション性能に変換することを示す。
論文 参考訳(メタデータ) (2023-05-02T17:55:38Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - SynLiDAR: Learning From Synthetic LiDAR Sequential Point Cloud for
Semantic Segmentation [37.00112978096702]
SynLiDARは、正確な幾何学的形状と包括的なセマンティッククラスを備えた合成LiDARポイントクラウドデータセットである。
PCT-Netは、現実世界のポイントクラウドデータとのギャップを狭めることを目的としたポイントクラウド翻訳ネットワークである。
複数のデータ拡張および半教師付きセマンティックセグメンテーションタスクに対する実験は、非常に肯定的な結果を示す。
論文 参考訳(メタデータ) (2021-07-12T12:51:08Z) - ePointDA: An End-to-End Simulation-to-Real Domain Adaptation Framework
for LiDAR Point Cloud Segmentation [111.56730703473411]
LiDARデータ上でディープニューラルネットワーク(DNN)をトレーニングするには、大規模なポイントワイドアノテーションが必要である。
シミュレーション・トゥ・リアル・ドメイン適応(SRDA)は、DNNを無制限の合成データと自動生成されたラベルで訓練する。
ePointDAは、自己教師付きドロップアウトノイズレンダリング、統計不変および空間適応型特徴アライメント、転送可能なセグメンテーション学習の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-09-07T23:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。