論文の概要: Boosting Point Clouds Rendering via Radiance Mapping
- arxiv url: http://arxiv.org/abs/2210.15107v1
- Date: Thu, 27 Oct 2022 01:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:22:46.705439
- Title: Boosting Point Clouds Rendering via Radiance Mapping
- Title(参考訳): radiance mappingによるポイントクラウドレンダリングの高速化
- Authors: Xiaoyang Huang, Yi Zhang, Bingbing Ni, Teng Li, Kai Chen, Wenjun Zhang
- Abstract要約: コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
- 参考スコア(独自算出の注目度): 49.24193509772339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years we have witnessed rapid development in NeRF-based image
rendering due to its high quality. However, point clouds rendering is somehow
less explored. Compared to NeRF-based rendering which suffers from dense
spatial sampling, point clouds rendering is naturally less computation
intensive, which enables its deployment in mobile computing device. In this
work, we focus on boosting the image quality of point clouds rendering with a
compact model design. We first analyze the adaption of the volume rendering
formulation on point clouds. Based on the analysis, we simplify the NeRF
representation to a spatial mapping function which only requires single
evaluation per pixel. Further, motivated by ray marching, we rectify the the
noisy raw point clouds to the estimated intersection between rays and surfaces
as queried coordinates, which could avoid spatial frequency collapse and
neighbor point disturbance. Composed of rasterization, spatial mapping and the
refinement stages, our method achieves the state-of-the-art performance on
point clouds rendering, outperforming prior works by notable margins, with a
smaller model size. We obtain a PSNR of 31.74 on NeRF-Synthetic, 25.88 on
ScanNet and 30.81 on DTU. Code and data would be released soon.
- Abstract(参考訳): 近年,高品質なNeRF画像のレンダリング技術が急速に進歩していることが注目されている。
しかし、ポイント・クラウドのレンダリングは、どうにか探索が進んでいない。
密集した空間サンプリングに苦しむNeRFベースのレンダリングと比較して、ポイントクラウドレンダリングは計算集約性が低いため、モバイルコンピューティングデバイスへの展開が可能である。
本研究では,コンパクトモデル設計によるポイントクラウドレンダリングの画質向上に重点を置いている。
まず、点雲上のボリュームレンダリングの定式化の適応性を分析する。
解析に基づき,1ピクセルあたりの単一評価しか必要としない空間マッピング関数へのNeRF表現を単純化する。
さらに, レイマーキングの動機として, ノイズの多い原点雲を, 周波数崩壊や近傍の点乱を避けるために, クリード座標として線と表面の交点の推定値に修正する。
本手法はラスタライジング,空間マッピング,精細化の段階から成り,ポイントクラウドレンダリングにおける最先端のパフォーマンスを実現し,モデルサイズを小さくして,先行作品よりも優れた性能を得る。
我々は、NeRF合成で31.74、ScanNetで25.88、DTUで30.81のPSNRを得る。
コードとデータは間もなくリリースされる。
関連論文リスト
- Fast Learning of Signed Distance Functions from Noisy Point Clouds via Noise to Noise Mapping [54.38209327518066]
点雲から符号付き距離関数を学習することは、3Dコンピュータビジョンにおいて重要な課題である。
クリーンポイントクラウドや地上の真理監督を必要としないノイズ・ノイズマッピングを用いてSDFを学習することを提案する。
我々の新しい特徴はノイズ・ト・ノイズマッピングにあり、1つの物体やシーンの高精度なSDFを、その多重または単一ノイズの観測から推測することができる。
論文 参考訳(メタデータ) (2024-07-04T03:35:02Z) - GPN: Generative Point-based NeRF [0.65268245109828]
我々は,部分的な雲を復元し,修復するために生成点ベースのNeRF (GPN) を提案する。
補修された点雲は、高空間分解能で撮像された画像との多視点整合を達成することができる。
論文 参考訳(メタデータ) (2024-04-12T08:14:17Z) - PointNeRF++: A multi-scale, point-based Neural Radiance Field [31.23973383531481]
ポイントクラウドは、ニューラルシーン表現のイメージを補完する魅力的な情報ソースを提供する。
点雲の品質が低い場合、点雲に基づくNeRFレンダリング手法はうまく動作しない。
本稿では,複数のスケールの点雲を,異なる解像度でスパース・ボクセル・グリッドで集約する表現を提案する。
我々は,NeRF Synthetic, ScanNet, KITTI-360 のデータセットを用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2023-12-04T21:43:00Z) - Pointersect: Neural Rendering with Cloud-Ray Intersection [30.485621062087585]
本研究では,点雲を表面のように描画する新しい手法を提案する。
提案手法は識別可能であり,シーン固有の最適化を必要としない。
論文 参考訳(メタデータ) (2023-04-24T18:36:49Z) - Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields [63.21420081888606]
最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
論文 参考訳(メタデータ) (2023-03-29T06:26:55Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering [21.563862632172363]
地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
論文 参考訳(メタデータ) (2021-08-01T13:26:01Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。