論文の概要: GPN: Generative Point-based NeRF
- arxiv url: http://arxiv.org/abs/2404.08312v1
- Date: Fri, 12 Apr 2024 08:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 15:35:59.544690
- Title: GPN: Generative Point-based NeRF
- Title(参考訳): GPN: 生成点ベースのNeRF
- Authors: Haipeng Wang,
- Abstract要約: 我々は,部分的な雲を復元し,修復するために生成点ベースのNeRF (GPN) を提案する。
補修された点雲は、高空間分解能で撮像された画像との多視点整合を達成することができる。
- 参考スコア(独自算出の注目度): 0.65268245109828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scanning real-life scenes with modern registration devices typically gives incomplete point cloud representations, primarily due to the limitations of partial scanning, 3D occlusions, and dynamic light conditions. Recent works on processing incomplete point clouds have always focused on point cloud completion. However, these approaches do not ensure consistency between the completed point cloud and the captured images regarding color and geometry. We propose using Generative Point-based NeRF (GPN) to reconstruct and repair a partial cloud by fully utilizing the scanning images and the corresponding reconstructed cloud. The repaired point cloud can achieve multi-view consistency with the captured images at high spatial resolution. For the finetunes of a single scene, we optimize the global latent condition by incorporating an Auto-Decoder architecture while retaining multi-view consistency. As a result, the generated point clouds are smooth, plausible, and geometrically consistent with the partial scanning images. Extensive experiments on ShapeNet demonstrate that our works achieve competitive performances to the other state-of-the-art point cloud-based neural scene rendering and editing performances.
- Abstract(参考訳): 現代の登録装置で現実のシーンをスキャンすると、主に部分走査、3D閉塞、動的光条件の制限により、不完全な点雲が表現される。
不完全なポイントクラウドの処理に関する最近の研究は、常にポイントクラウドの補完に焦点を当ててきた。
しかし、これらのアプローチは、完成した点雲と、色と幾何学に関するキャプチャ画像との整合性を保証するものではない。
我々は, 部分的雲の再構成と修復に生成点ベースのNeRF (GPN) を用い, スキャン画像と対応する再構成雲をフル活用することを提案する。
補修された点雲は、高空間分解能で撮像された画像との多視点整合を達成することができる。
単一シーンの微調整のために,マルチビューの一貫性を維持しながらAuto-Decoderアーキテクチャを組み込むことにより,グローバルな潜伏条件を最適化する。
その結果、生成された点雲は滑らかで、可塑性であり、幾何学的に部分走査画像と一致している。
ShapeNetに関する大規模な実験は、我々の研究が他の最先端のクラウドベースのニューラルシーンレンダリングと編集のパフォーマンスと競合する性能を達成することを実証している。
関連論文リスト
- Zero-shot Point Cloud Completion Via 2D Priors [52.72867922938023]
3次元点雲の完成は、部分的に観測された点雲から完全な形状を復元するように設計されている。
そこで本研究では, 観測された点群を対象とするゼロショットフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T08:02:17Z) - PointNeRF++: A multi-scale, point-based Neural Radiance Field [31.23973383531481]
ポイントクラウドは、ニューラルシーン表現のイメージを補完する魅力的な情報ソースを提供する。
点雲の品質が低い場合、点雲に基づくNeRFレンダリング手法はうまく動作しない。
本稿では,複数のスケールの点雲を,異なる解像度でスパース・ボクセル・グリッドで集約する表現を提案する。
我々は,NeRF Synthetic, ScanNet, KITTI-360 のデータセットを用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2023-12-04T21:43:00Z) - Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields [63.21420081888606]
最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
論文 参考訳(メタデータ) (2023-03-29T06:26:55Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - Boosting Point Clouds Rendering via Radiance Mapping [49.24193509772339]
コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
論文 参考訳(メタデータ) (2022-10-27T01:25:57Z) - Learning a Structured Latent Space for Unsupervised Point Cloud
Completion [48.79411151132766]
部分点雲と完全点雲の両方を符号化する統一的で構造化された潜在空間を学習する新しいフレームワークを提案する。
提案手法は、合成ShapeNetと実世界のKITTI、ScanNet、Matterport3Dデータセットの両方において、最先端の教師なし手法を一貫して上回っている。
論文 参考訳(メタデータ) (2022-03-29T13:58:44Z) - Temporal Point Cloud Completion with Pose Disturbance [32.536545112645335]
限られた翻訳と回転によるポーズ乱れを伴うスパース入力から完全点雲を提供する。
また、時間情報を用いて完了モデルを強化し、入力シーケンスで出力を精算する。
我々のフレームワークは、時間的情報を利用して、限られた変換で時間的一貫性を確保する最初のフレームワークです。
論文 参考訳(メタデータ) (2022-02-07T11:41:12Z) - SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering [21.563862632172363]
地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
論文 参考訳(メタデータ) (2021-08-01T13:26:01Z) - HyperPocket: Generative Point Cloud Completion [19.895219420937938]
遅延表現をアンタングルするHyperPocketという,新しいオートエンコーダベースのアーキテクチャを導入する。
ハイパーネットワークのパラダイムを活用して、欠落したオブジェクト部分によって残された、ポケットと呼ばれる空間を埋めます。
我々の手法は、他の最先端モデルと競合する性能を提供する。
論文 参考訳(メタデータ) (2021-02-11T12:30:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。