論文の概要: PC-NeRF: Parent-Child Neural Radiance Fields under Partial Sensor Data
Loss in Autonomous Driving Environments
- arxiv url: http://arxiv.org/abs/2310.00874v1
- Date: Mon, 2 Oct 2023 03:32:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 23:33:48.093125
- Title: PC-NeRF: Parent-Child Neural Radiance Fields under Partial Sensor Data
Loss in Autonomous Driving Environments
- Title(参考訳): PC-NeRF:自律走行環境における部分センサデータ損失下での親子ニューラルラジアンス場
- Authors: Xiuzhong Hu, Guangming Xiong, Zheng Zang, Peng Jia, Yuxuan Han, and
Junyi Ma
- Abstract要約: 親子ニューラル放射場(PC-NeRF)と呼ばれる新しい3次元シーン再構成フレームワークを提案する。
大規模なシーンで高精度な3次元再構成を実現するために,提案したPC-NeRFを用いて実験を行った。
- 参考スコア(独自算出の注目度): 3.0170390440173023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing large-scale 3D scenes is essential for autonomous vehicles,
especially when partial sensor data is lost. Although the recently developed
neural radiance fields (NeRF) have shown compelling results in implicit
representations, the large-scale 3D scene reconstruction using partially lost
LiDAR point cloud data still needs to be explored. To bridge this gap, we
propose a novel 3D scene reconstruction framework called parent-child neural
radiance field (PC-NeRF). The framework comprises two modules, the parent NeRF
and the child NeRF, to simultaneously optimize scene-level, segment-level, and
point-level scene representations. Sensor data can be utilized more efficiently
by leveraging the segment-level representation capabilities of child NeRFs, and
an approximate volumetric representation of the scene can be quickly obtained
even with limited observations. With extensive experiments, our proposed
PC-NeRF is proven to achieve high-precision 3D reconstruction in large-scale
scenes. Moreover, PC-NeRF can effectively tackle situations where partial
sensor data is lost and has high deployment efficiency with limited training
time. Our approach implementation and the pre-trained models will be available
at https://github.com/biter0088/pc-nerf.
- Abstract(参考訳): 大規模な3Dシーンの再構築は、特に部分センサーデータが失われる場合、自動運転車にとって不可欠である。
最近開発されたneural radiance fields(nerf)は暗黙的な表現において説得力のある結果を示しているが、部分的に失われたlidar point cloudデータを用いた大規模3dシーンの再構築はまだ検討が必要だ。
このギャップを埋めるために,親子ニューラルレイディアンス場(PC-NeRF)と呼ばれる新しい3次元シーン再構成フレームワークを提案する。
このフレームワークは、親NeRFと子NeRFの2つのモジュールから構成され、シーンレベル、セグメントレベル、ポイントレベルのシーン表現を同時に最適化する。
子供のnerfのセグメントレベル表現能力を利用してセンサデータをより効率的に利用することができ、限られた観察でもシーンの近似ボリューム表現を迅速に得ることができる。
大規模なシーンで高精度な3次元再構成を実現するために,提案したPC-NeRFを用いて実験を行った。
さらに、PC-NeRFは、部分センサデータが失われる状況に効果的に対処でき、訓練時間に制限のあるデプロイメント効率が高い。
私たちのアプローチ実装と事前トレーニングされたモデルは、https://github.com/biter0088/pc-nerfで利用可能です。
関連論文リスト
- NeSLAM: Neural Implicit Mapping and Self-Supervised Feature Tracking With Depth Completion and Denoising [23.876281686625134]
我々は,高精度で密度の高い深度推定,ロバストなカメラトラッキング,新しいビューの現実的な合成を実現するフレームワークNeSLAMを提案する。
各種屋内データセットを用いた実験は、再構築、品質追跡、新しいビュー合成におけるシステムの有効性と精度を示す。
論文 参考訳(メタデータ) (2024-03-29T07:59:37Z) - Mesh2NeRF: Direct Mesh Supervision for Neural Radiance Field Representation and Generation [51.346733271166926]
Mesh2NeRFは、3次元生成タスクのためのテクスチャメッシュから地上構造放射場を導出するアプローチである。
各種タスクにおけるMesh2NeRFの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-28T11:22:53Z) - PC-NeRF: Parent-Child Neural Radiance Fields Using Sparse LiDAR Frames
in Autonomous Driving Environments [3.1969023045814753]
親子ニューラルレイディアンス場(PC-NeRF)と呼ばれる3次元シーン再構成と新しいビュー合成フレームワークを提案する。
PC-NeRFは、シーン、セグメント、ポイントレベルを含む階層的な空間分割とマルチレベルシーン表現を実装している。
広範にわたる実験により,PC-NeRFは大規模シーンにおける高精度なLiDARビュー合成と3次元再構成を実現することが証明された。
論文 参考訳(メタデータ) (2024-02-14T17:16:39Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Improving NeRF with Height Data for Utilization of GIS Data [0.0]
GIS(Geographic Information System)から得られる高さデータを効果的に活用するために,NeRF(Near Radiance Fields)に基づく手法を提案する。
その結果、高速なトレーニング速度で画像レンダリングの精度が向上した。
論文 参考訳(メタデータ) (2023-07-15T06:49:09Z) - Registering Neural Radiance Fields as 3D Density Images [55.64859832225061]
我々は,様々な場面でトレーニングやテストが可能な,普遍的な事前学習型ニューラルネットワークを提案する。
我々は,グローバルアプローチとして,NeRFモデルを効果的に登録できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T09:08:46Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。