論文の概要: Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields
- arxiv url: http://arxiv.org/abs/2303.16482v1
- Date: Wed, 29 Mar 2023 06:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 15:56:39.490138
- Title: Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields
- Title(参考訳): point2pix:ニューラルネットワークによるフォトリアリスティックなポイントクラウドレンダリング
- Authors: Tao Hu, Xiaogang Xu, Shu Liu, Jiaya Jia
- Abstract要約: 最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
- 参考スコア(独自算出の注目度): 63.21420081888606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthesizing photo-realistic images from a point cloud is challenging because
of the sparsity of point cloud representation. Recent Neural Radiance Fields
and extensions are proposed to synthesize realistic images from 2D input. In
this paper, we present Point2Pix as a novel point renderer to link the 3D
sparse point clouds with 2D dense image pixels. Taking advantage of the point
cloud 3D prior and NeRF rendering pipeline, our method can synthesize
high-quality images from colored point clouds, generally for novel indoor
scenes. To improve the efficiency of ray sampling, we propose point-guided
sampling, which focuses on valid samples. Also, we present Point Encoding to
build Multi-scale Radiance Fields that provide discriminative 3D point
features. Finally, we propose Fusion Encoding to efficiently synthesize
high-quality images. Extensive experiments on the ScanNet and ArkitScenes
datasets demonstrate the effectiveness and generalization.
- Abstract(参考訳): 点雲からのフォトリアリスティック画像の合成は、点雲表現の空間性のため困難である。
最近のニューラルラジアンス場と拡張法は、2次元入力からリアルな画像を合成するために提案されている。
本稿では,3次元スパース点雲と2次元高密度画像画素をリンクする新しいポイントレンダラとしてpoint2pixを提案する。
提案手法は,3D前の点群とNeRFレンダリングパイプラインを利用して,色付きの点群から高品質な画像を合成することができる。
レイサンプリングの効率を向上させるために,有効試料に着目した点誘導サンプリングを提案する。
また,点符号化を行い,判別可能な3次元点特徴を提供するマルチスケールラミアンスフィールドを構築する。
最後に,高品質な画像を効率よく合成するFusion Encodingを提案する。
ScanNetとArkitScenesデータセットに関する大規模な実験は、有効性と一般化を実証している。
関連論文リスト
- GaussianPU: A Hybrid 2D-3D Upsampling Framework for Enhancing Color Point Clouds via 3D Gaussian Splatting [11.60605616190011]
ロボット知覚のための3Dガウススプラッティング(3DGS)に基づく2D-3Dハイブリッドカラークラウドサンプリングフレームワーク(GaussianPU)を提案する。
二重スケールレンダリング画像復元ネットワークは、スパースポイントクラウドレンダリングを密度表現に変換する。
バニラ3DGSに一連の改良を加え、ポイント数を正確に制御できるようにしました。
論文 参考訳(メタデータ) (2024-09-03T03:35:04Z) - TriVol: Point Cloud Rendering via Triple Volumes [57.305748806545026]
我々は,高密度かつ軽量な3D表現であるTriVolをNeRFと組み合わせて,点雲から写実的な画像を描画する。
我々のフレームワークは、微調整なしでシーン/オブジェクトのカテゴリを描画できる優れた一般化能力を持っている。
論文 参考訳(メタデータ) (2023-03-29T06:34:12Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Points2NeRF: Generating Neural Radiance Fields from 3D point cloud [0.0]
ニューラルラジアンス場(NeRF)として3次元物体を表現することを提案する。
ハイパーネットワークのパラダイムを活用して、モデルをトレーニングして、関連するカラー値を持つ3Dポイントクラウドを取ります。
提案手法は効率的な3次元オブジェクト表現を提供し,既存手法に対するいくつかの利点を提供する。
論文 参考訳(メタデータ) (2022-06-02T20:23:33Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - Graphite: GRAPH-Induced feaTure Extraction for Point Cloud Registration [80.69255347486693]
我々は、シンプルな機能とキーポイント検出器である Graph-induced feaTure extract Pipeline を導入する。
我々は,点クラウド領域を記述し,有意な点を抽出する汎用的なグラフベース学習手法を構築した。
我々は3Dキーポイントパイプラインをグラフニューラルネットワークで再構成し、ポイントセットの効率的な処理を可能にする。
論文 参考訳(メタデータ) (2020-10-18T19:41:09Z) - ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes [93.82668222075128]
RGB-Dシーンに対するImVoteNetと呼ばれる3次元検出アーキテクチャを提案する。
ImVoteNetは、画像に2D票、ポイントクラウドに3D票を投じることに基づいている。
挑戦的なSUN RGB-Dデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-01-29T05:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。