論文の概要: NeRF2Points: Large-Scale Point Cloud Generation From Street Views' Radiance Field Optimization
- arxiv url: http://arxiv.org/abs/2404.04875v1
- Date: Sun, 7 Apr 2024 08:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 19:11:06.294389
- Title: NeRF2Points: Large-Scale Point Cloud Generation From Street Views' Radiance Field Optimization
- Title(参考訳): NeRF2Points:ストリートビューのラジアンスフィールド最適化による大規模ポイントクラウド生成
- Authors: Peng Tu, Xun Zhou, Mingming Wang, Xiaojun Yang, Bo Peng, Ping Chen, Xiu Su, Yawen Huang, Yefeng Zheng, Chang Xu,
- Abstract要約: 我々は,都市の点雲合成に適したNeRF2Pointsを提案する。
本稿は,高解像度の20km大都市街路データセットによって支援されている。
NeRF2Pointsは、NeRFベースの点雲合成の固有の課題をうまくナビゲートする。
- 参考スコア(独自算出の注目度): 42.061845192281936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields (NeRF) have emerged as a paradigm-shifting methodology for the photorealistic rendering of objects and environments, enabling the synthesis of novel viewpoints with remarkable fidelity. This is accomplished through the strategic utilization of object-centric camera poses characterized by significant inter-frame overlap. This paper explores a compelling, alternative utility of NeRF: the derivation of point clouds from aggregated urban landscape imagery. The transmutation of street-view data into point clouds is fraught with complexities, attributable to a nexus of interdependent variables. First, high-quality point cloud generation hinges on precise camera poses, yet many datasets suffer from inaccuracies in pose metadata. Also, the standard approach of NeRF is ill-suited for the distinct characteristics of street-view data from autonomous vehicles in vast, open settings. Autonomous vehicle cameras often record with limited overlap, leading to blurring, artifacts, and compromised pavement representation in NeRF-based point clouds. In this paper, we present NeRF2Points, a tailored NeRF variant for urban point cloud synthesis, notable for its high-quality output from RGB inputs alone. Our paper is supported by a bespoke, high-resolution 20-kilometer urban street dataset, designed for point cloud generation and evaluation. NeRF2Points adeptly navigates the inherent challenges of NeRF-based point cloud synthesis through the implementation of the following strategic innovations: (1) Integration of Weighted Iterative Geometric Optimization (WIGO) and Structure from Motion (SfM) for enhanced camera pose accuracy, elevating street-view data precision. (2) Layered Perception and Integrated Modeling (LPiM) is designed for distinct radiance field modeling in urban environments, resulting in coherent point cloud representations.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、オブジェクトや環境の光リアルなレンダリングのためのパラダイムシフト手法として登場し、目覚ましい忠実さを持つ新しい視点の合成を可能にしている。
これは、フレーム間の大きな重複を特徴とする、オブジェクト中心のカメラポーズの戦略的利用によって達成される。
本稿では,都市景観画像からの点雲の導出という,NeRFの説得力のある代替用途について検討する。
ストリートビューデータの点雲への変換は、相互依存変数のネクサスに起因する複雑さによって引き起こされる。
まず、高品質なポイントクラウド生成ヒンジは、正確なカメラのポーズに基づいていますが、多くのデータセットは、ポーズメタデータの不正確さに悩まされます。
また、NeRFの標準的なアプローチは、広大なオープンな環境での自動運転車のストリートビューデータの特徴に不適合である。
自律走行車用カメラは、しばしば重複が限定され、NeRFベースの点雲におけるぼやけ、アーチファクト、妥協した舗装表現に繋がる。
本稿では,都市域のクラウド合成に適したNeRF2Pointsについて述べる。
本論文は,ポイントクラウドの生成と評価を目的とした,高速で高解像度な20kmの街路データセットによって支援されている。
1) 重み付き反復幾何最適化(WIGO)とStructure from Motion(SfM)の統合により、カメラポーズの精度が向上し、ストリートビューデータの精度が向上する。
2) 層状知覚統合モデリング (LPiM) は, 都市環境における異なる放射場モデリングのために設計されている。
関連論文リスト
- GPN: Generative Point-based NeRF [0.65268245109828]
我々は,部分的な雲を復元し,修復するために生成点ベースのNeRF (GPN) を提案する。
補修された点雲は、高空間分解能で撮像された画像との多視点整合を達成することができる。
論文 参考訳(メタデータ) (2024-04-12T08:14:17Z) - SpikeNeRF: Learning Neural Radiance Fields from Continuous Spike Stream [26.165424006344267]
スパイクカメラは、標準的なカメラよりも明確な利点がある。
スパイクカメラに依存する既存のアプローチは、しばしば最適な照明を仮定する。
スパイクカメラデータからNeRFに基づくボリュームシーン表現を導出した最初の作品であるSpikeNeRFを紹介する。
論文 参考訳(メタデータ) (2024-03-17T13:51:25Z) - PointNeRF++: A multi-scale, point-based Neural Radiance Field [31.23973383531481]
ポイントクラウドは、ニューラルシーン表現のイメージを補完する魅力的な情報ソースを提供する。
点雲の品質が低い場合、点雲に基づくNeRFレンダリング手法はうまく動作しない。
本稿では,複数のスケールの点雲を,異なる解像度でスパース・ボクセル・グリッドで集約する表現を提案する。
我々は,NeRF Synthetic, ScanNet, KITTI-360 のデータセットを用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2023-12-04T21:43:00Z) - Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields [63.21420081888606]
最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
論文 参考訳(メタデータ) (2023-03-29T06:26:55Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - Boosting Point Clouds Rendering via Radiance Mapping [49.24193509772339]
コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
論文 参考訳(メタデータ) (2022-10-27T01:25:57Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。