論文の概要: DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer
- arxiv url: http://arxiv.org/abs/2111.00140v1
- Date: Sat, 30 Oct 2021 01:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 16:56:09.843928
- Title: DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer
- Title(参考訳): DIB-R++: ハイブリッド微分レンダリングによる照明と材料予測の学習
- Authors: Wenzheng Chen and Joey Litalien and Jun Gao and Zian Wang and Clement
Fuji Tsang and Sameh Khamis and Or Litany and Sanja Fidler
- Abstract要約: そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
- 参考スコア(独自算出の注目度): 78.91753256634453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the challenging problem of predicting intrinsic object properties
from a single image by exploiting differentiable renderers. Many previous
learning-based approaches for inverse graphics adopt rasterization-based
renderers and assume naive lighting and material models, which often fail to
account for non-Lambertian, specular reflections commonly observed in the wild.
In this work, we propose DIBR++, a hybrid differentiable renderer which
supports these photorealistic effects by combining rasterization and
ray-tracing, taking the advantage of their respective strengths -- speed and
realism. Our renderer incorporates environmental lighting and spatially-varying
material models to efficiently approximate light transport, either through
direct estimation or via spherical basis functions. Compared to more advanced
physics-based differentiable renderers leveraging path tracing, DIBR++ is
highly performant due to its compact and expressive shading model, which
enables easy integration with learning frameworks for geometry, reflectance and
lighting prediction from a single image without requiring any ground-truth. We
experimentally demonstrate that our approach achieves superior material and
lighting disentanglement on synthetic and real data compared to existing
rasterization-based approaches and showcase several artistic applications
including material editing and relighting.
- Abstract(参考訳): 微分可能なレンダラーを用いて、単一画像から固有のオブジェクト特性を予測するという課題を考察する。
逆グラフィックスに対する多くの学習ベースのアプローチでは、ラスタライズベースのレンダラーを採用しており、無意味なライティングや物質モデルも想定している。
本研究では,ラスタ化とレイトレーシングを組み合わせて,それぞれの強みであるスピードとリアリズムを生かして,これらの光リアル効果をサポートするハイブリッド微分可能レンダラーDIBR++を提案する。
我々のレンダラーは環境光と空間変化物質モデルを用いて直接推定や球面基底関数による光輸送を効率的に近似する。
パストレースを利用したより高度な物理ベースの微分可能なレンダラと比較して、DIBR++はコンパクトで表現力のあるシェーディングモデルにより、基底構造を必要とせず、単一の画像から幾何学、反射、照明予測の学習フレームワークと容易に統合できる。
既存のラスタリゼーション・アプローチに比べて合成データと実データに優れた材料と照明の絡み合いが達成できることを実験的に証明し,素材の編集やリライトなどの芸術的応用を紹介する。
関連論文リスト
- MIRReS: Multi-bounce Inverse Rendering using Reservoir Sampling [17.435649250309904]
本稿では,新しい2段階逆レンダリングフレームワークであるMIRReSを紹介する。
提案手法は, ステージ1で明示的な幾何(三角形メッシュ)を抽出し, より現実的な物理ベースの逆レンダリングモデルを導入する。
本手法は,自己陰影や内部反射を含む間接照明を効果的に推定する。
論文 参考訳(メタデータ) (2024-06-24T07:00:57Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - NeFII: Inverse Rendering for Reflectance Decomposition with Near-Field
Indirect Illumination [48.42173911185454]
逆レンダリング手法は、多視点RGB画像から幾何学、材料、照明を推定することを目的としている。
本稿では,多視点画像から材料と照明を分解するエンドツーエンドの逆レンダリングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-29T12:05:19Z) - NDJIR: Neural Direct and Joint Inverse Rendering for Geometry, Lights,
and Materials of Real Object [5.665283675533071]
我々はニューラルダイレクトおよびジョイントリバースレンダリング(NDJIR)を提案する。
提案手法は, 実際のオブジェクトに対して, フォトグラム設定で意味論的に分解することができる。
論文 参考訳(メタデータ) (2023-02-02T13:21:03Z) - Physics-based Indirect Illumination for Inverse Rendering [70.27534648770057]
本稿では,複数視点のRGB画像からシーンの照明,幾何学,材料を学習する物理ベースの逆レンダリング手法を提案する。
副産物として、我々の物理ベースの逆レンダリングモデルは、フレキシブルでリアルな素材編集やリライティングを容易にする。
論文 参考訳(メタデータ) (2022-12-09T07:33:49Z) - Learning-based Inverse Rendering of Complex Indoor Scenes with
Differentiable Monte Carlo Raytracing [27.96634370355241]
本研究はモンテカルロ線トレーシングと重要サンプリングを組み合わせたエンドツーエンドの学習ベースの逆レンダリングフレームワークを提案する。
このフレームワークは1枚の画像を入力として、基礎となる幾何学、空間的に変化する照明、およびフォトリアリスティックな材料を共同で復元する。
論文 参考訳(メタデータ) (2022-11-06T03:34:26Z) - PhySG: Inverse Rendering with Spherical Gaussians for Physics-based
Material Editing and Relighting [60.75436852495868]
本稿では、RGB入力画像からジオメトリ、マテリアル、イルミネーションをゼロから再構築する逆レンダリングパイプラインPhySGを紹介します。
我々は合成データと実データの両方を用いて,新しい視点のレンダリングを可能にするだけでなく,物質や照明の物理ベースの外観編集を可能にすることを実証した。
論文 参考訳(メタデータ) (2021-04-01T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。