論文の概要: Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes
- arxiv url: http://arxiv.org/abs/2101.10994v1
- Date: Tue, 26 Jan 2021 18:50:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:45:39.682802
- Title: Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes
- Title(参考訳): ニューラルジオメトリレベルの詳細: 暗黙の3次元形状によるリアルタイムレンダリング
- Authors: Towaki Takikawa, Joey Litalien, Kangxue Yin, Karsten Kreis, Charles
Loop, Derek Nowrouzezahrai, Alec Jacobson, Morgan McGuire, Sanja Fidler
- Abstract要約: 本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
- 参考スコア(独自算出の注目度): 77.6741486264257
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural signed distance functions (SDFs) are emerging as an effective
representation for 3D shapes. State-of-the-art methods typically encode the SDF
with a large, fixed-size neural network to approximate complex shapes with
implicit surfaces. Rendering with these large networks is, however,
computationally expensive since it requires many forward passes through the
network for every pixel, making these representations impractical for real-time
graphics. We introduce an efficient neural representation that, for the first
time, enables real-time rendering of high-fidelity neural SDFs, while achieving
state-of-the-art geometry reconstruction quality. We represent implicit
surfaces using an octree-based feature volume which adaptively fits shapes with
multiple discrete levels of detail (LODs), and enables continuous LOD with SDF
interpolation. We further develop an efficient algorithm to directly render our
novel neural SDF representation in real-time by querying only the necessary
LODs with sparse octree traversal. We show that our representation is 2-3
orders of magnitude more efficient in terms of rendering speed compared to
previous works. Furthermore, it produces state-of-the-art reconstruction
quality for complex shapes under both 3D geometric and 2D image-space metrics.
- Abstract(参考訳): ニューラルサイン付き距離関数(SDF)は3次元形状の効果的な表現として現れている。
最先端の手法は通常、sdfを大きな固定サイズのニューラルネットワークでエンコードし、暗黙的な表面を持つ複雑な形状を近似する。
しかし、これらの大きなネットワークによるレンダリングは計算量的に高価であり、全てのピクセルに対して多くの前方パスを必要とするため、これらの表現はリアルタイムグラフィックスでは実用的ではない。
高効率なニューラル表現を導入し、高忠実度なニューラルSDFをリアルタイムにレンダリングし、最先端のジオメトリ再構築品質を実現します。
我々は,複数次元の細部(LOD)で形状を適応的に適合させるオクツリー型特徴量を用いて暗黙の面を表現し,SDF補間による連続LODを可能にする。
さらに,必要なLODのみをスパースオクツリートラバーサルでクエリすることで,新しいSDF表現を直接リアルタイムに描画する効率的なアルゴリズムを開発した。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
さらに、3次元幾何および2次元画像空間の計測値の下で、複雑な形状に対する最先端の復元品質を生成する。
関連論文リスト
- Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - HDSDF: Hybrid Directional and Signed Distance Functions for Fast Inverse
Rendering [103.80070163611917]
3D形状の暗黙的な神経表現は、シングルビューや複数ビューの3D再構成など、様々な用途に有用な強力な先行情報を形成する。
既存のニューラル表現の欠点は、レンダリングに複数のネットワーク評価が必要であることである。
我々は,方向距離関数(DDF)を付加した符号付き距離関数(SDF)に基づく新しいハイブリッド3次元オブジェクト表現を提案する。
論文 参考訳(メタデータ) (2022-03-30T13:24:04Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - Representing 3D Shapes with Probabilistic Directed Distance Fields [7.528141488548544]
暗黙的なアーキテクチャ内での高速な微分可能なレンダリングを可能にする新しい形状表現を開発する。
基礎分野における本質的な不連続性をモデル化する方法を示す。
また, 単一形状の3次元画像モデリング, 単一画像再構成作業にも適用した。
論文 参考訳(メタデータ) (2021-12-10T02:15:47Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Learnable Triangulation for Deep Learning-based 3D Reconstruction of
Objects of Arbitrary Topology from Single RGB Images [12.693545159861857]
モノクロ画像から3次元物体を再構成する深層強化学習手法を提案する。
提案手法は, 視覚的品質, 再構成精度, 計算時間において, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2021-09-24T09:44:22Z) - H3D-Net: Few-Shot High-Fidelity 3D Head Reconstruction [27.66008315400462]
表面形状を暗黙的に表現する最近の学習手法は、多視点3次元再構成の問題において顕著な結果を示している。
我々はこれらの制限を,数発のフル3次元頭部再構成の特定の問題に対処する。
暗黙の表現を用いて,数千個の不完全な生スキャンから3次元頭部形状モデルを学習する。
論文 参考訳(メタデータ) (2021-07-26T23:04:18Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。