論文の概要: Spectral-Geometric Neural Fields for Pose-Free LiDAR View Synthesis
- arxiv url: http://arxiv.org/abs/2603.12903v1
- Date: Fri, 13 Mar 2026 11:07:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.060498
- Title: Spectral-Geometric Neural Fields for Pose-Free LiDAR View Synthesis
- Title(参考訳): ポスフリーLiDARビュー合成のためのスペクトル幾何学的ニューラルネットワーク
- Authors: Yinuo Jiang, Jun Cheng, Yiran Wang, Cheng Cheng,
- Abstract要約: 我々は、スペクトル情報と幾何整合性を統合する、ポーズレスLiDAR NeRFフレームワークであるSG-NLFを提案する。
我々の研究は、LiDARビュー合成の新しい視点を提供することができる。
- 参考スコア(独自算出の注目度): 18.665047418574574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields (NeRF) have shown remarkable success in image novel view synthesis (NVS), inspiring extensions to LiDAR NVS. However, most methods heavily rely on accurate camera poses for scene reconstruction. The sparsity and textureless nature of LiDAR data also present distinct challenges, leading to geometric holes and discontinuous surfaces. To address these issues, we propose SG-NLF, a pose-free LiDAR NeRF framework that integrates spectral information with geometric consistency. Specifically, we design a hybrid representation based on spectral priors to reconstruct smooth geometry. For pose optimization, we construct a confidence-aware graph based on feature compatibility to achieve global alignment. In addition, an adversarial learning strategy is introduced to enforce cross-frame consistency, thereby enhancing reconstruction quality. Comprehensive experiments demonstrate the effectiveness of our framework, especially in challenging low-frequency scenarios. Compared to previous state-of-the-art methods, SG-NLF improves reconstruction quality and pose accuracy by over 35.8% and 68.8%. Our work can provide a novel perspective for LiDAR view synthesis.
- Abstract(参考訳): Neural Radiance Fields (NeRF) は、LiDAR NVSの拡張を刺激するイメージノベルビュー合成 (NVS) において顕著な成功を収めている。
しかし、ほとんどの手法はシーン再構築のための正確なカメラポーズに大きく依存している。
LiDARデータの空間性やテクスチャのない性質も異なる課題を示しており、幾何学的穴や不連続面に繋がる。
これらの問題に対処するために、スペクトル情報と幾何整合性を統合するポーズレスLiDAR NeRFフレームワークであるSG-NLFを提案する。
具体的には、スムーズな幾何学を再構築するために、スペクトル事前に基づくハイブリッド表現を設計する。
ポーズ最適化のために,グローバルアライメントを実現するために,機能互換性に基づく信頼度対応グラフを構築した。
さらに、クロスフレーム一貫性を実現するために、対向学習戦略を導入し、再構築品質を向上する。
総合的な実験は、特に低周波シナリオに挑戦する上で、我々のフレームワークの有効性を実証する。
従来の最先端の手法と比較して、SG-NLFは復元品質を改善し、精度を35.8%、68.8%以上向上させた。
我々の研究は、LiDARビュー合成の新しい視点を提供することができる。
関連論文リスト
- GSM-GS: Geometry-Constrained Single and Multi-view Gaussian Splatting for Surface Reconstruction [16.96307929629197]
ガウス点雲の非構造的かつ不規則な性質は 精度の回復に困難をもたらす
GSM-GS: 単視点適応部分領域重み付け制約と多視点空間構造改善を統合した相乗的最適化フレームワークを提案する。
提案手法は,レンダリング品質と幾何学的再構成の両立を実現している。
論文 参考訳(メタデータ) (2026-02-13T10:26:32Z) - LiDAR-GS++:Improving LiDAR Gaussian Reconstruction via Diffusion Priors [51.724649822336346]
実時間および高忠実度再シミュレーションのための拡散前処理により強化された再構成手法であるLiDAR-GS++を提案する。
具体的には、粗い外挿レンダリングを条件とした制御可能なLiDAR生成モデルを導入し、余分な幾何整合性スキャンを生成する。
再構成を未適合領域にまで拡張することにより,外挿的視点に対するグローバルな幾何整合性を確保することができる。
論文 参考訳(メタデータ) (2025-11-15T17:33:12Z) - Gesplat: Robust Pose-Free 3D Reconstruction via Geometry-Guided Gaussian Splatting [21.952325954391508]
本稿では、3DGSベースのフレームワークであるGesplatを紹介し、ロバストな新しいビュー合成と、未提示のスパース画像からの幾何的に一貫した再構成を可能にする。
提案手法は,他のポーズフリー手法と比較して,前方および大規模の複雑なデータセット上でより堅牢な性能を実現する。
論文 参考訳(メタデータ) (2025-10-11T08:13:46Z) - GeoNLF: Geometry guided Pose-Free Neural LiDAR Fields [10.753993328978542]
本稿では, 交互にグローバルなニューラル再構成と純幾何学的ポーズ最適化を行うハイブリッドフレームワークを提案する。
NuScenesとKITTI-360データセットの実験は、新しいビュー合成とマルチビュー登録の両方においてGeoNLFの優位性を実証している。
論文 参考訳(メタデータ) (2024-07-08T04:19:49Z) - LiDAR4D: Dynamic Neural Fields for Novel Space-time View LiDAR Synthesis [11.395101473757443]
我々は,新しい時空LiDARビュー合成のための微分可能なLiDAR専用フレームワークLiDAR4Dを提案する。
空間幅と大規模特性を考慮した4次元ハイブリッド表現を多平面・格子特徴と組み合わせて設計する。
LiDAR点雲の現実的な合成のために、領域横断パターンを保存するために、レイドロップ確率のグローバル最適化を取り入れる。
論文 参考訳(メタデータ) (2024-04-03T13:39:29Z) - SGCNeRF: Few-Shot Neural Rendering via Sparse Geometric Consistency Guidance [136.15885067858298]
本研究では、空間的に一貫した幾何フィルタリング機構と周波数誘導幾何正規化戦略により強化された特徴マッチングに基づくスパース幾何正規化モジュールを提案する。
実験により, SGCNeRFは, LLFFおよびDTUにおけるPSNRの0.7dBの改善により, 優れた幾何整合性を実現し, かつFreeNeRFを超えていることが示された。
論文 参考訳(メタデータ) (2024-04-01T08:37:57Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。