論文の概要: Shape and Reflectance Reconstruction in Uncontrolled Environments by
Differentiable Rendering
- arxiv url: http://arxiv.org/abs/2110.12975v1
- Date: Mon, 25 Oct 2021 14:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 20:48:23.490421
- Title: Shape and Reflectance Reconstruction in Uncontrolled Environments by
Differentiable Rendering
- Title(参考訳): 微分レンダリングによる制御不能環境における形状・反射率復元
- Authors: Rui Li, Guangmin Zang, Miao Qi, Wolfgang Heidrich
- Abstract要約: 従来のハンドヘルドカメラを用いた多視点写真からシーンの3次元形状と反射率を再構築する効率的な手法を提案する。
また,本手法は,新しい視点の視覚的合成と定量化において,最先端の代替手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 27.41344744849205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simultaneous reconstruction of geometry and reflectance properties in
uncontrolled environments remains a challenging problem. In this paper, we
propose an efficient method to reconstruct the scene's 3D geometry and
reflectance from multi-view photography using conventional hand-held cameras.
Our method automatically builds a virtual scene in a differentiable rendering
system that roughly matches the real world's scene parameters, optimized by
minimizing photometric objectives alternatingly and stochastically. With the
optimal scene parameters evaluated, photo-realistic novel views for various
viewing angles and distances can then be generated by our approach. We present
the results of captured scenes with complex geometry and various reflection
types. Our method also shows superior performance compared to state-of-the-art
alternatives in novel view synthesis visually and quantitatively.
- Abstract(参考訳): 非制御環境における幾何と反射特性の同時再構成は課題である。
本稿では,従来のハンドヘルドカメラを用いた多視点撮影からシーンの3次元形状と反射率を再構築する効率的な手法を提案する。
本手法は,実世界のシーンパラメータとほぼ一致する微分可能なレンダリングシステムにおいて仮想シーンを自動的に構築し,測光対象を交互かつ確率的に最小化することで最適化する。
最適なシーンパラメータを評価することで、様々な視角と距離のフォトリアリスティックな新しいビューを、我々のアプローチによって生成することができる。
複雑な形状と様々な反射型を持つ撮影シーンの結果を示す。
また,新しいビュー合成における最先端の代替手法と比較して,視覚的,定量的に優れた性能を示す。
関連論文リスト
- Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [39.87943157165662]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - Multi-View Neural Surface Reconstruction with Structured Light [7.709526244898887]
微分可能レンダリング(DR)に基づく3次元オブジェクト再構成はコンピュータビジョンにおいて活発な研究課題である。
DRに基づく多視点3Dオブジェクト再構成において,構造化光(SL)を用いたアクティブセンシングを導入し,任意のシーンやカメラポーズの未知の形状と外観を学習する。
本手法は, テクスチャレス領域における高い再現精度を実現し, カメラポーズキャリブレーションの労力を削減する。
論文 参考訳(メタデータ) (2022-11-22T03:10:46Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Multi-view Gradient Consistency for SVBRDF Estimation of Complex Scenes
under Natural Illumination [6.282068591820945]
本稿では,自然照明下で観察された複雑なシーンの表面反射率を空間的に変化させる手法を提案する。
エンドツーエンドのプロセスでは、シーンの幾何学のモデルと、シーンの表面をキャプチャするいくつかの画像を使用する。
実験により, 複雑な形状を持つ任意の屋外シーンに対して, 現実的な結果が得られた。
論文 参考訳(メタデータ) (2022-02-25T23:49:39Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Deep Reflectance Volumes: Relightable Reconstructions from Multi-View
Photometric Images [59.53382863519189]
位置決めされた点灯下で撮影された非構造画像からシーンの外観を再構築する深層学習手法を提案する。
ディープ・リフレクタンス・ボリュームの中心部には、不透明度、表面正規度、リフレクタンス・ボクセル・グリッドからなる新しいボリューム・シーンの表現がある。
学習したリフレクタンスボリュームは編集可能であり、キャプチャされたシーンの素材を修正可能であることを示す。
論文 参考訳(メタデータ) (2020-07-20T05:38:11Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。