論文の概要: Multiview Neural Surface Reconstruction by Disentangling Geometry and
Appearance
- arxiv url: http://arxiv.org/abs/2003.09852v3
- Date: Sun, 25 Oct 2020 10:30:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 05:23:06.671847
- Title: Multiview Neural Surface Reconstruction by Disentangling Geometry and
Appearance
- Title(参考訳): 遠方形状と外観による多視点ニューラルサーフェス再構成
- Authors: Lior Yariv, Yoni Kasten, Dror Moran, Meirav Galun, Matan Atzmon, Ronen
Basri, Yaron Lipman
- Abstract要約: 我々は、未知の幾何学、カメラパラメータ、および表面からカメラに向かって反射された光を近似するニューラルネットワークを同時に学習するニューラルネットワークを導入する。
我々は、DTU MVSデータセットから、異なる素材特性、照明条件、ノイズの多いカメラ素材を実世界の2D画像でトレーニングした。
- 参考スコア(独自算出の注目度): 46.488713939892136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we address the challenging problem of multiview 3D surface
reconstruction. We introduce a neural network architecture that simultaneously
learns the unknown geometry, camera parameters, and a neural renderer that
approximates the light reflected from the surface towards the camera. The
geometry is represented as a zero level-set of a neural network, while the
neural renderer, derived from the rendering equation, is capable of
(implicitly) modeling a wide set of lighting conditions and materials. We
trained our network on real world 2D images of objects with different material
properties, lighting conditions, and noisy camera initializations from the DTU
MVS dataset. We found our model to produce state of the art 3D surface
reconstructions with high fidelity, resolution and detail.
- Abstract(参考訳): 本研究では,マルチビュー3次元表面再構成の課題に対処する。
我々は、未知の幾何学、カメラパラメータ、および表面からカメラに向かって反射された光を近似するニューラルネットワークレンダラーを同時に学習するニューラルネットワークアーキテクチャを導入する。
この幾何学はニューラルネットワークのゼロレベルセットとして表現されるが、レンダリング方程式から導かれたニューラルネットワークレンダラーは(単純に)幅広い照明条件や材料をモデル化することができる。
我々は,dtu mvsデータセットから,異なる材料特性,照明条件,ノイズの多いカメラ初期化を持つ物体の,実世界の2d画像に対してネットワークを訓練した。
我々は,高忠実度,高精細度,高精細度で3次元表面再構成の状態を再現するモデルを見出した。
関連論文リスト
- Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Multi-View Neural Surface Reconstruction with Structured Light [7.709526244898887]
微分可能レンダリング(DR)に基づく3次元オブジェクト再構成はコンピュータビジョンにおいて活発な研究課題である。
DRに基づく多視点3Dオブジェクト再構成において,構造化光(SL)を用いたアクティブセンシングを導入し,任意のシーンやカメラポーズの未知の形状と外観を学習する。
本手法は, テクスチャレス領域における高い再現精度を実現し, カメラポーズキャリブレーションの労力を削減する。
論文 参考訳(メタデータ) (2022-11-22T03:10:46Z) - NeuPhysics: Editable Neural Geometry and Physics from Monocular Videos [82.74918564737591]
本稿では,モノクラーRGBビデオ入力のみから動的シーンの3次元形状と物理パラメータを学習する手法を提案する。
実験により,提案手法は,競合するニューラルフィールドアプローチと比較して,動的シーンのメッシュとビデオの再構成に優れることを示した。
論文 参考訳(メタデータ) (2022-10-22T04:57:55Z) - Neural Implicit Surface Reconstruction using Imaging Sonar [38.73010653104763]
画像ソナー(FLS)を用いた物体の高密度3次元再構成手法を提案する。
シーン幾何を点雲や体積格子としてモデル化する従来の手法と比較して、幾何をニューラル暗黙関数として表現する。
我々は,実データと合成データを用いて実験を行い,本アルゴリズムは,従来よりも高精細なFLS画像から高精細な表面形状を再構成し,それに伴うメモリオーバーヘッドに悩まされることを実証した。
論文 参考訳(メタデータ) (2022-09-17T02:23:09Z) - NeRS: Neural Reflectance Surfaces for Sparse-view 3D Reconstruction in
the Wild [80.09093712055682]
ニューラルリフレクタンスサーフェス(NeRS)と呼ばれる暗黙モデルの表面アナログを導入する。
NeRSは、球に微分される閉じた表面の神経形状の表現を学び、水密な再構成を保証する。
このようなデータから学習可能な表面ベースニューラル再構成は,体積的ニューラルレンダリングに基づく再構成よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-14T17:59:58Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。