論文の概要: Z2P: Instant Rendering of Point Clouds
- arxiv url: http://arxiv.org/abs/2105.14548v1
- Date: Sun, 30 May 2021 13:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:27:46.529407
- Title: Z2P: Instant Rendering of Point Clouds
- Title(参考訳): Z2P: ポイントクラウドのインスタントレンダリング
- Authors: Gal Metzer, Rana Hanocka, Raja Giryes, Niloy J. Mitra, Daniel Cohen-Or
- Abstract要約: ニューラルネットワークを用いて点雲をレンダリングする手法を提案する。
既存のポイントレンダリング技術は、スプレイティングを使用するか、最初にレンダリング可能な表面メッシュを再構築する。
- 参考スコア(独自算出の注目度): 104.1186026323896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a technique for rendering point clouds using a neural network.
Existing point rendering techniques either use splatting, or first reconstruct
a surface mesh that can then be rendered. Both of these techniques require
solving for global point normal orientation, which is a challenging problem on
its own. Furthermore, splatting techniques result in holes and overlaps,
whereas mesh reconstruction is particularly challenging, especially in the
cases of thin surfaces and sheets.
We cast the rendering problem as a conditional image-to-image translation
problem. In our formulation, Z2P, i.e., depth-augmented point features as
viewed from target camera view, are directly translated by a neural network to
rendered images, conditioned on control variables (e.g., color, light). We
avoid inevitable issues with splatting (i.e., holes and overlaps), and bypass
solving the notoriously challenging surface reconstruction problem or
estimating oriented normals. Yet, our approach results in a rendered image as
if a surface mesh was reconstructed. We demonstrate that our framework produces
a plausible image, and can effectively handle noise, non-uniform sampling, thin
surfaces / sheets, and is fast.
- Abstract(参考訳): ニューラルネットワークを用いて点雲をレンダリングする手法を提案する。
既存のポイントレンダリング技術は、スプレイティングを使用するか、最初にレンダリング可能な表面メッシュを再構築する。
これらの手法はどちらも、大域点正規化の解決を必要とするが、これはそれ自体が難しい問題である。
さらに、スプレーティング技術は穴と重なりを生じさせるが、メッシュの再構築は特に、特に薄い表面やシートの場合において困難である。
レンダリング問題を条件付き画像から画像への変換問題として用いた。
提案手法では,z2p,すなわち,対象カメラの視点から見る奥行き推定点特徴を,ニューラルネットワークによって直接画像に変換し,制御変数(色,光など)を条件とする。
我々は、スプレーティング(すなわち穴と重なり)の避けられない問題を避け、悪名高い表面再構成問題や指向正規値の推定をバイパスする。
しかし,本手法では,表面メッシュが再構築されたようなレンダリング画像が得られる。
我々は,本フレームワークが可塑性画像を生成し,ノイズ,非一様サンプリング,薄い表面/シートを効果的に処理し,高速であることを示す。
関連論文リスト
- PFGS: High Fidelity Point Cloud Rendering via Feature Splatting [5.866747029417274]
スパースポイントから高品質な画像をレンダリングする新しいフレームワークを提案する。
この手法はまず3次元ガウス格子と点雲のレンダリングを橋渡しする。
異なるベンチマーク実験により、レンダリング品質と主成分の必要性の観点から、我々の手法の優位性を示す。
論文 参考訳(メタデータ) (2024-07-04T11:42:54Z) - Bridging 3D Gaussian and Mesh for Freeview Video Rendering [57.21847030980905]
GauMeshはダイナミックシーンのモデリングとレンダリングのために3D GaussianとMeshをブリッジする。
提案手法は, 動的シーンの異なる部分を表現するために, プリミティブの適切なタイプに適応することを示す。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - TRIPS: Trilinear Point Splatting for Real-Time Radiance Field Rendering [6.142272540492937]
本稿では,ガウス版とADOP版の両方のアイデアを組み合わせたTRIPS(Trilinear Splatting)を提案する。
評価の結果,TRIPS はレンダリング品質の点で既存の最先端手法を超越していることがわかった。
このパフォーマンスは、複雑な幾何学、広大な風景、自動露光映像など、困難なシナリオにまで拡張されている。
論文 参考訳(メタデータ) (2024-01-11T16:06:36Z) - O$^2$-Recon: Completing 3D Reconstruction of Occluded Objects in the Scene with a Pre-trained 2D Diffusion Model [28.372289119872764]
咬合は、RGB-Dビデオからの3D再構成において一般的な問題であり、しばしばオブジェクトの完全な再構成をブロックする。
本研究では,物体の隠れた部分の完全な表面を再構築する2次元拡散に基づくインペインティングモデルを用いて,新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-18T14:38:31Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Deep Rectangling for Image Stitching: A Learning Baseline [57.76737888499145]
我々は不規則な境界やシーンに大きな多様性を持つ最初の画像縫合整形データセットを構築した。
実験では、従来の方法よりも定量的にも質的にも優位性を示す。
論文 参考訳(メタデータ) (2022-03-08T03:34:10Z) - Fully Context-Aware Image Inpainting with a Learned Semantic Pyramid [102.24539566851809]
画像中の任意の欠落する領域に対して、合理的で現実的なコンテンツを復元することは、重要な課題である。
最近の画像インパインティングモデルは鮮明な視覚的詳細を生成するために大きな進歩を遂げているが、それでもテクスチャのぼやけや構造的歪みにつながる可能性がある。
本研究では,画像中の局所的欠落コンテンツの回復に大きく貢献する,多スケールなセマンティック・セマンティック・ピラミッド・ネットワーク(SPN)を提案する。
論文 参考訳(メタデータ) (2021-12-08T04:33:33Z) - Learning Deformable Tetrahedral Meshes for 3D Reconstruction [78.0514377738632]
学習に基づく3次元再構成に対応する3次元形状表現は、機械学習とコンピュータグラフィックスにおいてオープンな問題である。
ニューラル3D再構成に関するこれまでの研究は、利点だけでなく、ポイントクラウド、ボクセル、サーフェスメッシュ、暗黙の関数表現といった制限も示していた。
Deformable Tetrahedral Meshes (DefTet) を, ボリューム四面体メッシュを再構成問題に用いるパラメータ化として導入する。
論文 参考訳(メタデータ) (2020-11-03T02:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。