論文の概要: Boosting Point Clouds Rendering via Radiance Mapping
- arxiv url: http://arxiv.org/abs/2210.15107v1
- Date: Thu, 27 Oct 2022 01:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:22:46.705439
- Title: Boosting Point Clouds Rendering via Radiance Mapping
- Title(参考訳): radiance mappingによるポイントクラウドレンダリングの高速化
- Authors: Xiaoyang Huang, Yi Zhang, Bingbing Ni, Teng Li, Kai Chen, Wenjun Zhang
- Abstract要約: コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
- 参考スコア(独自算出の注目度): 49.24193509772339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years we have witnessed rapid development in NeRF-based image
rendering due to its high quality. However, point clouds rendering is somehow
less explored. Compared to NeRF-based rendering which suffers from dense
spatial sampling, point clouds rendering is naturally less computation
intensive, which enables its deployment in mobile computing device. In this
work, we focus on boosting the image quality of point clouds rendering with a
compact model design. We first analyze the adaption of the volume rendering
formulation on point clouds. Based on the analysis, we simplify the NeRF
representation to a spatial mapping function which only requires single
evaluation per pixel. Further, motivated by ray marching, we rectify the the
noisy raw point clouds to the estimated intersection between rays and surfaces
as queried coordinates, which could avoid spatial frequency collapse and
neighbor point disturbance. Composed of rasterization, spatial mapping and the
refinement stages, our method achieves the state-of-the-art performance on
point clouds rendering, outperforming prior works by notable margins, with a
smaller model size. We obtain a PSNR of 31.74 on NeRF-Synthetic, 25.88 on
ScanNet and 30.81 on DTU. Code and data would be released soon.
- Abstract(参考訳): 近年,高品質なNeRF画像のレンダリング技術が急速に進歩していることが注目されている。
しかし、ポイント・クラウドのレンダリングは、どうにか探索が進んでいない。
密集した空間サンプリングに苦しむNeRFベースのレンダリングと比較して、ポイントクラウドレンダリングは計算集約性が低いため、モバイルコンピューティングデバイスへの展開が可能である。
本研究では,コンパクトモデル設計によるポイントクラウドレンダリングの画質向上に重点を置いている。
まず、点雲上のボリュームレンダリングの定式化の適応性を分析する。
解析に基づき,1ピクセルあたりの単一評価しか必要としない空間マッピング関数へのNeRF表現を単純化する。
さらに, レイマーキングの動機として, ノイズの多い原点雲を, 周波数崩壊や近傍の点乱を避けるために, クリード座標として線と表面の交点の推定値に修正する。
本手法はラスタライジング,空間マッピング,精細化の段階から成り,ポイントクラウドレンダリングにおける最先端のパフォーマンスを実現し,モデルサイズを小さくして,先行作品よりも優れた性能を得る。
我々は、NeRF合成で31.74、ScanNetで25.88、DTUで30.81のPSNRを得る。
コードとデータは間もなくリリースされる。
関連論文リスト
- PointNeRF++: A multi-scale, point-based Neural Radiance Field [32.58523561180766]
本稿では,複数のスケールの点雲を,異なる解像度でスパース・ボクセル・グリッドで集約する簡単な表現を提案する。
我々はNeRF Synthetic, ScanNet, KITTI-360データセットの手法を検証した。
論文 参考訳(メタデータ) (2023-12-04T21:43:00Z) - PRED: Pre-training via Semantic Rendering on LiDAR Point Clouds [18.840000859663153]
本稿では,屋外点雲のための画像支援事前学習フレームワークPreDを提案する。
我々のフレームワークの主な構成要素は、Birds-Eye-View (BEV) 機能マップ条件付きセマンティックレンダリングである。
我々は、高マスキング比のポイントワイドマスクを組み込むことにより、モデルの性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-11-08T07:26:09Z) - Pointersect: Neural Rendering with Cloud-Ray Intersection [30.485621062087585]
本研究では,点雲を表面のように描画する新しい手法を提案する。
提案手法は識別可能であり,シーン固有の最適化を必要としない。
論文 参考訳(メタデータ) (2023-04-24T18:36:49Z) - Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields [63.21420081888606]
最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
論文 参考訳(メタデータ) (2023-03-29T06:26:55Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering [21.563862632172363]
地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
論文 参考訳(メタデータ) (2021-08-01T13:26:01Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。