論文の概要: De-rendering the World's Revolutionary Artefacts
- arxiv url: http://arxiv.org/abs/2104.03954v1
- Date: Thu, 8 Apr 2021 17:56:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 14:34:38.934872
- Title: De-rendering the World's Revolutionary Artefacts
- Title(参考訳): 世界革命の成果物のデレンダリング
- Authors: Shangzhe Wu and Ameesh Makadia and Jiajun Wu and Noah Snavely and
Richard Tucker and Angjoo Kanazawa
- Abstract要約: 実際の単一画像コレクションから、環境照明や表面材料を回収する手法を提案します。
回転対称なアーティファクトに焦点をあて,血管などの反射を含む表面特性に挑戦する。
世界の革命的成果物をデレンダリングできるエンドツーエンドの学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 65.60220069214591
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent works have shown exciting results in unsupervised image de-rendering
-- learning to decompose 3D shape, appearance, and lighting from single-image
collections without explicit supervision. However, many of these assume
simplistic material and lighting models. We propose a method, termed RADAR,
that can recover environment illumination and surface materials from real
single-image collections, relying neither on explicit 3D supervision, nor on
multi-view or multi-light images. Specifically, we focus on rotationally
symmetric artefacts that exhibit challenging surface properties including
specular reflections, such as vases. We introduce a novel self-supervised
albedo discriminator, which allows the model to recover plausible albedo
without requiring any ground-truth during training. In conjunction with a shape
reconstruction module exploiting rotational symmetry, we present an end-to-end
learning framework that is able to de-render the world's revolutionary
artefacts. We conduct experiments on a real vase dataset and demonstrate
compelling decomposition results, allowing for applications including
free-viewpoint rendering and relighting.
- Abstract(参考訳): 最近の研究は、教師なしのイメージデレンダリングにおいてエキサイティングな結果を示している -- 明示的な監督なしに、単一のイメージコレクションから3Dの形状、外観、照明を分解することを学ぶ。
しかし、これらの多くは単純な材料と照明モデルを想定している。
本研究では,実画像から環境照明や表面材料を回収する手法として,明示的な3次元監視やマルチビュー画像やマルチライト画像にも依存しないレーダを提案する。
具体的には,vasなどの鏡面反射を含む表面特性の困難さを示す回転対称アーティファクトに着目した。
そこで本研究では,新たな自己教師型アルベド判別器を導入し,トレーニング中に基盤構造を必要とせず,可塑性アルベドを復元する。
回転対称性を利用した形状再構成モジュールと連動して,世界革命的アーティファクトのデレンダリングを可能にするエンドツーエンド学習フレームワークを提案する。
実データに対して実験を行い,分解結果を実証し,自由視点レンダリングやリライティングなどのアプリケーションを実現する。
関連論文リスト
- A General Albedo Recovery Approach for Aerial Photogrammetric Images through Inverse Rendering [7.874736360019618]
本稿では,自然光照射下での典型的な航空写真からのアルベド回収のための一般的な画像形成モデルを提案する。
我々のアプローチは、太陽の照明と風景の幾何学の両方が空中光度計で推定可能であるという事実に基づいている。
論文 参考訳(メタデータ) (2024-09-04T18:58:32Z) - UniSDF: Unifying Neural Representations for High-Fidelity 3D
Reconstruction of Complex Scenes with Reflections [92.38975002642455]
大規模な複雑なシーンをリフレクションで再構成できる汎用3次元再構成手法UniSDFを提案する。
提案手法は,複雑な大規模シーンを細部と反射面で頑健に再構築することができる。
論文 参考訳(メタデータ) (2023-12-20T18:59:42Z) - Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [38.72679977945778]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - De-rendering 3D Objects in the Wild [21.16153549406485]
物体の1つの像を1つの形状に分解できる弱教師付き手法を提案する。
トレーニングでは、学習プロセスをブートストラップするために、トレーニング対象の粗い初期形状の推定にのみ依存する。
本実験では,2次元画像を3次元表現にデレンダリングし,未知のオブジェクトカテゴリに一般化できることを示す。
論文 参考訳(メタデータ) (2022-01-06T23:50:09Z) - Self-supervised High-fidelity and Re-renderable 3D Facial Reconstruction
from a Single Image [19.0074836183624]
そこで本研究では,高品質な3次元顔の再構築を目的とした,新たな自己教師型学習フレームワークを提案する。
我々のフレームワークは質的比較と量的比較の両方において最先端のアプローチを大幅に上回っている。
論文 参考訳(メタデータ) (2021-11-16T08:10:24Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z) - NeRFactor: Neural Factorization of Shape and Reflectance Under an
Unknown Illumination [60.89737319987051]
照明条件が不明な物体の多視点像から物体の形状と空間的反射率を復元する問題に対処する。
これにより、任意の環境照明下でのオブジェクトの新たなビューのレンダリングや、オブジェクトの材料特性の編集が可能になる。
論文 参考訳(メタデータ) (2021-06-03T16:18:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。