論文の概要: Volume Rendering of Neural Implicit Surfaces
- arxiv url: http://arxiv.org/abs/2106.12052v1
- Date: Tue, 22 Jun 2021 20:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:23:26.416980
- Title: Volume Rendering of Neural Implicit Surfaces
- Title(参考訳): 神経陰影表面のボリュームレンダリング
- Authors: Lior Yariv, Jiatao Gu, Yoni Kasten, Yaron Lipman
- Abstract要約: 本稿では,ニューラルボリュームレンダリングにおける幾何学的表現と再構成を改善することを目的とする。
体積密度を幾何学の関数としてモデル化することで実現する。
この新たな密度表現を挑戦的なシーンマルチビューデータセットに適用することで、高品質な幾何学的再構成を実現した。
- 参考スコア(独自算出の注目度): 57.802056954935495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural volume rendering became increasingly popular recently due to its
success in synthesizing novel views of a scene from a sparse set of input
images. So far, the geometry learned by neural volume rendering techniques was
modeled using a generic density function. Furthermore, the geometry itself was
extracted using an arbitrary level set of the density function leading to a
noisy, often low fidelity reconstruction. The goal of this paper is to improve
geometry representation and reconstruction in neural volume rendering. We
achieve that by modeling the volume density as a function of the geometry. This
is in contrast to previous work modeling the geometry as a function of the
volume density. In more detail, we define the volume density function as
Laplace's cumulative distribution function (CDF) applied to a signed distance
function (SDF) representation. This simple density representation has three
benefits: (i) it provides a useful inductive bias to the geometry learned in
the neural volume rendering process; (ii) it facilitates a bound on the opacity
approximation error, leading to an accurate sampling of the viewing ray.
Accurate sampling is important to provide a precise coupling of geometry and
radiance; and (iii) it allows efficient unsupervised disentanglement of shape
and appearance in volume rendering. Applying this new density representation to
challenging scene multiview datasets produced high quality geometry
reconstructions, outperforming relevant baselines. Furthermore, switching shape
and appearance between scenes is possible due to the disentanglement of the
two.
- Abstract(参考訳): ニューラルボリュームレンダリングは、入力画像のスパースセットからシーンの新たなビューを合成する成功により、最近ますます人気が高まっている。
これまでのところ、ニューラルネットワークのボリュームレンダリング技術によって学習された幾何学は、汎用密度関数を用いてモデル化されていた。
さらに、幾何そのものは密度関数の任意のレベルセットを用いて抽出され、ノイズやしばしば低忠実度再構成につながった。
本論文の目的は,神経ボリュームレンダリングにおける幾何学表現と再構成を改善することである。
体積密度を幾何学の関数としてモデル化することで実現する。
これは、体積密度の関数として幾何学をモデル化した以前の仕事とは対照的である。
より詳しくは、体積密度関数を符号付き距離関数(SDF)表現に適用したラプラス累積分布関数(CDF)と定義する。
この単純な密度表現には3つの利点がある: (i) 神経容積レンダリングプロセスで学習された幾何学に有用な帰納的バイアスを与える; (ii) 不透明近似誤差のバウンドを容易にし、正確な観察線をサンプリングする。
正確なサンプリングは、幾何と放射率の正確な結合を提供するために重要であり、かつ、(iii)ボリュームレンダリングにおける形状と外観の効率的な教師なしのアンアンタングルを可能にする。
この新たな密度表現をチャレンジシーンのマルチビューデータセットに適用すると、高品質なジオメトリ再構成が生成され、関連するベースラインを上回った。
また、両者の絡み合いにより、シーン間の形状や外観の切り替えも可能である。
関連論文リスト
- Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis [70.40950409274312]
我々は、細い構造を再構築する能力を損なうことなく、表面への収束を促すために密度場を変更する。
また, メッシュの単純化と外観モデルの適合により, 融合型メッシュ方式を開発した。
私たちのモデルで生成されたコンパクトメッシュは、モバイルデバイス上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2024-02-19T18:59:41Z) - Anti-Aliased Neural Implicit Surfaces with Encoding Level of Detail [54.03399077258403]
本稿では,高頻度幾何細部リカバリとアンチエイリアス化された新しいビューレンダリングのための効率的なニューラル表現であるLoD-NeuSを提案する。
我々の表現は、光線に沿った円錐状のフラストラム内の多面体化から空間特徴を集約する。
論文 参考訳(メタデータ) (2023-09-19T05:44:00Z) - Neural Wavelet-domain Diffusion for 3D Shape Generation, Inversion, and
Manipulation [54.09274684734721]
本稿では,ウェーブレット領域における連続的な暗黙表現の直接生成モデルを用いて,3次元形状の生成,反転,操作を行う新しい手法を提案する。
具体的には、1対の粗い係数と細部係数の体積を持つコンパクトなウェーブレット表現を提案し、トランケートされた符号付き距離関数とマルチスケールの生体直交ウェーブレットを介して3次元形状を暗黙的に表現する。
エンコーダネットワークを共同でトレーニングすることで,形状を反転させる潜在空間を学習することができる。
論文 参考訳(メタデータ) (2023-02-01T02:47:53Z) - Recovering Fine Details for Neural Implicit Surface Reconstruction [3.9702081347126943]
そこで我々はD-NeuSを提案する。D-NeuSは、微細な幾何学的詳細を復元できるボリュームレンダリング型ニューラル暗示表面再構成法である。
我々は,SDFゼロクロスの補間により表面点に多視点の特徴的整合性を付与する。
本手法は,高精度な表面を細部で再構成し,その性能を向上する。
論文 参考訳(メタデータ) (2022-11-21T10:06:09Z) - Neural Implicit Surface Reconstruction using Imaging Sonar [38.73010653104763]
画像ソナー(FLS)を用いた物体の高密度3次元再構成手法を提案する。
シーン幾何を点雲や体積格子としてモデル化する従来の手法と比較して、幾何をニューラル暗黙関数として表現する。
我々は,実データと合成データを用いて実験を行い,本アルゴリズムは,従来よりも高精細なFLS画像から高精細な表面形状を再構成し,それに伴うメモリオーバーヘッドに悩まされることを実証した。
論文 参考訳(メタデータ) (2022-09-17T02:23:09Z) - Multi-View Reconstruction using Signed Ray Distance Functions (SRDF) [22.75986869918975]
本稿では,体積の新たな形状表現に基づく新しい計算手法について検討する。
この表現に関連する形状エネルギーは、与えられたカラー画像の3次元形状を評価し、外観予測を必要としない。
実際には、カメラ線に沿った深さによってパラメータ化される符号付き距離に基づいて、暗黙の形状表現であるSRDFを提案する。
論文 参考訳(メタデータ) (2022-08-31T19:32:17Z) - Improved surface reconstruction using high-frequency details [44.73668037810989]
ニューラルレンダリングにおける表面再構成の品質向上のための新しい手法を提案する。
以上の結果から,本手法は高頻度表面の細部を再構築し,現状よりも優れた表面の再現性が得られることがわかった。
論文 参考訳(メタデータ) (2022-06-15T23:46:48Z) - Neural Convolutional Surfaces [59.172308741945336]
この研究は、大域的、粗い構造から、微細で局所的で、おそらく繰り返される幾何学を歪める形状の表現に関係している。
このアプローチは, 最先端技術よりも優れたニューラル形状圧縮を実現するとともに, 形状詳細の操作と伝達を可能にする。
論文 参考訳(メタデータ) (2022-04-05T15:40:11Z) - BNV-Fusion: Dense 3D Reconstruction using Bi-level Neural Volume Fusion [85.24673400250671]
ニューラル・ボリューム・フュージョン (BNV-Fusion) は, ニューラル・暗黙表現とニューラル・レンダリングの最近の進歩を活用して高密度3次元再構成を行う。
新しい深度マップをグローバルな暗黙的表現に漸進的に統合するために、我々は新しい二段階融合戦略を提案する。
提案手法を定量的に定性的に評価し,既存手法よりも有意な改善を示した。
論文 参考訳(メタデータ) (2022-04-03T19:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。