論文の概要: PDF: Point Diffusion Implicit Function for Large-scale Scene Neural
Representation
- arxiv url: http://arxiv.org/abs/2311.01773v1
- Date: Fri, 3 Nov 2023 08:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 14:47:22.597724
- Title: PDF: Point Diffusion Implicit Function for Large-scale Scene Neural
Representation
- Title(参考訳): PDF:Point Diffusion Implicit Function for Large-scale Scene Neural Representation
- Authors: Yuhan Ding, Fukun Yin, Jiayuan Fan, Hui Li, Xin Chen, Wen Liu,
Chongshan Lu, Gang YU, Tao Chen
- Abstract要約: 大規模シーンニューラル表現のためのポイント暗黙関数(PDF)を提案する。
本手法のコアは大規模クラウド超解像拡散モジュールである。
Mip-NeRF 360に基づく領域サンプリングを用いて背景表現をモデル化する。
- 参考スコア(独自算出の注目度): 24.751481680565803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in implicit neural representations have achieved impressive
results by sampling and fusing individual points along sampling rays in the
sampling space. However, due to the explosively growing sampling space, finely
representing and synthesizing detailed textures remains a challenge for
unbounded large-scale outdoor scenes. To alleviate the dilemma of using
individual points to perceive the entire colossal space, we explore learning
the surface distribution of the scene to provide structural priors and reduce
the samplable space and propose a Point Diffusion implicit Function, PDF, for
large-scale scene neural representation. The core of our method is a
large-scale point cloud super-resolution diffusion module that enhances the
sparse point cloud reconstructed from several training images into a dense
point cloud as an explicit prior. Then in the rendering stage, only sampling
points with prior points within the sampling radius are retained. That is, the
sampling space is reduced from the unbounded space to the scene surface.
Meanwhile, to fill in the background of the scene that cannot be provided by
point clouds, the region sampling based on Mip-NeRF 360 is employed to model
the background representation. Expensive experiments have demonstrated the
effectiveness of our method for large-scale scene novel view synthesis, which
outperforms relevant state-of-the-art baselines.
- Abstract(参考訳): 暗黙的神経表現の最近の進歩は、サンプリング空間のサンプリング線に沿って個々の点をサンプリングし、融合することで、印象的な結果を得た。
しかし、爆発的に増加するサンプリング空間のため、詳細なテクスチャを微妙に表現し、合成することは、大規模な屋外シーンでは依然として困難である。
個々の点を用いて全体空間を知覚するジレンマを緩和するために,シーンの表面分布を学習して,構造的事前情報を提供し,サンプリング可能な空間を低減し,大規模シーンニューラル表現のためのポイント拡散暗黙関数(PDF)を提案する。
この手法の核心は,複数の訓練画像から再構成されたスパースポイントクラウドを,事前に明示した濃密なポイントクラウドに拡張する,大規模ポイントクラウド超解像拡散モジュールである。
そして、レンダリング段階では、サンプリング半径内で先行点を有するサンプリングポイントのみを保持する。
すなわち、サンプリング空間は、未有界空間からシーン表面へ縮小される。
一方、点雲では提供できないシーンの背景を埋めるために、Mip-NeRF 360に基づく領域サンプリングを用いて背景表現をモデル化する。
提案手法の有効性を実証した大規模なシーンノウハウの合成実験を行った。
関連論文リスト
- TSDF-Sampling: Efficient Sampling for Neural Surface Field using
Truncated Signed Distance Field [9.458310455872438]
本稿では,シーンのTrncated Signed Distance Field (TSDF) を組み込むことにより,サンプリング回数を大幅に削減する新しい手法を提案する。
実験の結果, 性能を損なうことなく, 推論速度は11倍に向上した。
論文 参考訳(メタデータ) (2023-11-29T18:23:18Z) - Adaptive Shells for Efficient Neural Radiance Field Rendering [92.18962730460842]
本稿では, 表面および表面のレンダリングを円滑に遷移させるニューラル放射率の定式化を提案する。
我々の手法は、非常に高い忠実度で効率的なレンダリングを可能にする。
また,抽出したエンベロープは,アニメーションやシミュレーションなどの下流アプリケーションを可能にすることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:58:55Z) - Pointersect: Neural Rendering with Cloud-Ray Intersection [30.485621062087585]
本研究では,点雲を表面のように描画する新しい手法を提案する。
提案手法は識別可能であり,シーン固有の最適化を必要としない。
論文 参考訳(メタデータ) (2023-04-24T18:36:49Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Semi-signed neural fitting for surface reconstruction from unoriented
point clouds [53.379712818791894]
より優れた符号付き距離場を再構成するためのSN-Fittingを提案する。
SSNフィッティングは半署名の監督と損失に基づく領域サンプリング戦略で構成されている。
我々は,SSN-Fittingが,異なる設定下で最先端の性能を達成することを示す実験を行う。
論文 参考訳(メタデータ) (2022-06-14T09:40:17Z) - Spotlights: Probing Shapes from Spherical Viewpoints [25.824284796437652]
本研究では3次元形状を1次元の奥行き値のコンパクトな配列として表現するスポットライトと呼ばれる新しいサンプリングモデルを提案する。
球面上に均等に分布するカメラの構成をシミュレートし、それぞれの仮想カメラがその主点から小さな同心球状キャップに試料点を通して光線を流し、球面に囲まれた物体との交点を探索する。
論文 参考訳(メタデータ) (2022-05-25T08:23:18Z) - PUFA-GAN: A Frequency-Aware Generative Adversarial Network for 3D Point
Cloud Upsampling [56.463507980857216]
本稿では,点群アップサンプリングのための生成的対向ネットワークを提案する。
基底表面に均等に分布するアップサンプリングポイントを作成できるだけでなく、クリーンな高周波領域を効率的に生成することができる。
論文 参考訳(メタデータ) (2022-03-02T07:47:46Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - Point Cloud Upsampling via Disentangled Refinement [86.3641957163818]
3Dスキャンによって生成された点雲は、しばしばスパース、非均一、ノイズである。
近年のアップサンプリング手法は, 分布均一性と近接場を両立させながら, 密度の高い点集合を生成することを目的としている。
2つのカスケードサブネットワーク、高密度ジェネレータ、空間精錬器を定式化する。
論文 参考訳(メタデータ) (2021-06-09T02:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。