論文の概要: Shape and Reflectance Reconstruction in Uncontrolled Environments by
Differentiable Rendering
- arxiv url: http://arxiv.org/abs/2110.12975v1
- Date: Mon, 25 Oct 2021 14:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 20:48:23.490421
- Title: Shape and Reflectance Reconstruction in Uncontrolled Environments by
Differentiable Rendering
- Title(参考訳): 微分レンダリングによる制御不能環境における形状・反射率復元
- Authors: Rui Li, Guangmin Zang, Miao Qi, Wolfgang Heidrich
- Abstract要約: 従来のハンドヘルドカメラを用いた多視点写真からシーンの3次元形状と反射率を再構築する効率的な手法を提案する。
また,本手法は,新しい視点の視覚的合成と定量化において,最先端の代替手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 27.41344744849205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simultaneous reconstruction of geometry and reflectance properties in
uncontrolled environments remains a challenging problem. In this paper, we
propose an efficient method to reconstruct the scene's 3D geometry and
reflectance from multi-view photography using conventional hand-held cameras.
Our method automatically builds a virtual scene in a differentiable rendering
system that roughly matches the real world's scene parameters, optimized by
minimizing photometric objectives alternatingly and stochastically. With the
optimal scene parameters evaluated, photo-realistic novel views for various
viewing angles and distances can then be generated by our approach. We present
the results of captured scenes with complex geometry and various reflection
types. Our method also shows superior performance compared to state-of-the-art
alternatives in novel view synthesis visually and quantitatively.
- Abstract(参考訳): 非制御環境における幾何と反射特性の同時再構成は課題である。
本稿では,従来のハンドヘルドカメラを用いた多視点撮影からシーンの3次元形状と反射率を再構築する効率的な手法を提案する。
本手法は,実世界のシーンパラメータとほぼ一致する微分可能なレンダリングシステムにおいて仮想シーンを自動的に構築し,測光対象を交互かつ確率的に最小化することで最適化する。
最適なシーンパラメータを評価することで、様々な視角と距離のフォトリアリスティックな新しいビューを、我々のアプローチによって生成することができる。
複雑な形状と様々な反射型を持つ撮影シーンの結果を示す。
また,新しいビュー合成における最先端の代替手法と比較して,視覚的,定量的に優れた性能を示す。
関連論文リスト
- Incorporating dense metric depth into neural 3D representations for view synthesis and relighting [25.028859317188395]
ロボット応用では、密度の深い距離の深さをステレオで直接測定することができ、照明を制御できる。
本研究は,ニューラルネットワークによる3次元表現のトレーニングに高密度な距離深度を組み込む手法を実証する。
また、パイプラインに必要なデータを取得し、リライティングとビュー合成の結果を示すために開発されたマルチフラッシュステレオカメラシステムについても論じる。
論文 参考訳(メタデータ) (2024-09-04T20:21:13Z) - MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [38.72679977945778]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - Multi-View Neural Surface Reconstruction with Structured Light [7.709526244898887]
微分可能レンダリング(DR)に基づく3次元オブジェクト再構成はコンピュータビジョンにおいて活発な研究課題である。
DRに基づく多視点3Dオブジェクト再構成において,構造化光(SL)を用いたアクティブセンシングを導入し,任意のシーンやカメラポーズの未知の形状と外観を学習する。
本手法は, テクスチャレス領域における高い再現精度を実現し, カメラポーズキャリブレーションの労力を削減する。
論文 参考訳(メタデータ) (2022-11-22T03:10:46Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Multi-view Gradient Consistency for SVBRDF Estimation of Complex Scenes
under Natural Illumination [6.282068591820945]
本稿では,自然照明下で観察された複雑なシーンの表面反射率を空間的に変化させる手法を提案する。
エンドツーエンドのプロセスでは、シーンの幾何学のモデルと、シーンの表面をキャプチャするいくつかの画像を使用する。
実験により, 複雑な形状を持つ任意の屋外シーンに対して, 現実的な結果が得られた。
論文 参考訳(メタデータ) (2022-02-25T23:49:39Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。