論文の概要: NDJIR: Neural Direct and Joint Inverse Rendering for Geometry, Lights,
and Materials of Real Object
- arxiv url: http://arxiv.org/abs/2302.00675v1
- Date: Thu, 2 Feb 2023 13:21:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 16:35:10.814591
- Title: NDJIR: Neural Direct and Joint Inverse Rendering for Geometry, Lights,
and Materials of Real Object
- Title(参考訳): ndjir: 実際の物体の幾何学、光、および材料のための神経直接および合同逆レンダリング
- Authors: Kazuki Yoshiyama, Takuya Narihira
- Abstract要約: 我々はニューラルダイレクトおよびジョイントリバースレンダリング(NDJIR)を提案する。
提案手法は, 実際のオブジェクトに対して, フォトグラム設定で意味論的に分解することができる。
- 参考スコア(独自算出の注目度): 5.665283675533071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of inverse rendering is to decompose geometry, lights, and materials
given pose multi-view images. To achieve this goal, we propose neural direct
and joint inverse rendering, NDJIR. Different from prior works which relies on
some approximations of the rendering equation, NDJIR directly addresses the
integrals in the rendering equation and jointly decomposes geometry: signed
distance function, lights: environment and implicit lights, materials: base
color, roughness, specular reflectance using the powerful and flexible volume
rendering framework, voxel grid feature, and Bayesian prior. Our method
directly uses the physically-based rendering, so we can seamlessly export an
extracted mesh with materials to DCC tools and show material conversion
examples. We perform intensive experiments to show that our proposed method can
decompose semantically well for real object in photogrammetric setting and what
factors contribute towards accurate inverse rendering.
- Abstract(参考訳): 逆レンダリングの目標は、幾何、光、多視点画像の素材を分解することである。
この目的を達成するために、ニューラルダイレクトおよびジョイント逆レンダリング(NDJIR)を提案する。
レンダリング方程式の近似に依存する以前の研究と異なり、NDJIRは直接レンダリング方程式の積分に対処し、幾何学を共同で分解する:符号付き距離関数、光:環境と暗黙の光、材料:ベース色、粗さ、スペクトル反射率、強力で柔軟なボリュームレンダリングフレームワーク、ボクセルグリッド特徴、ベイズ前駆体。
本手法では, 物理的レンダリングを直接使用することにより, 抽出したメッシュをDCCツールにシームレスにエクスポートし, 材料変換例を示す。
提案手法は,フォトグラム設定における実物体のセマンティックな分解や,正確な逆レンダリングに寄与する要因を示すため,集中的な実験を行う。
関連論文リスト
- Triplet: Triangle Patchlet for Mesh-Based Inverse Rendering and Scene Parameters Approximation [0.0]
逆レンダリングは、光、幾何学、テクスチャ、材料を含むシーンの物理的特性を導き出そうとする。
メッシュは、多くのシミュレーションパイプラインで採用されている伝統的な表現として、いまだに逆レンダリングのラディアンスフィールドに限られた影響しか示していない。
本稿では,これらのパラメータを包括的に近似するメッシュベースの表現であるTriangle Patchlet (abbr. Triplet) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T09:59:11Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - NeFII: Inverse Rendering for Reflectance Decomposition with Near-Field
Indirect Illumination [48.42173911185454]
逆レンダリング手法は、多視点RGB画像から幾何学、材料、照明を推定することを目的としている。
本稿では,多視点画像から材料と照明を分解するエンドツーエンドの逆レンダリングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-29T12:05:19Z) - Physics-based Indirect Illumination for Inverse Rendering [70.27534648770057]
本稿では,複数視点のRGB画像からシーンの照明,幾何学,材料を学習する物理ベースの逆レンダリング手法を提案する。
副産物として、我々の物理ベースの逆レンダリングモデルは、フレキシブルでリアルな素材編集やリライティングを容易にする。
論文 参考訳(メタデータ) (2022-12-09T07:33:49Z) - IRISformer: Dense Vision Transformers for Single-Image Inverse Rendering
in Indoor Scenes [99.76677232870192]
我々は、高密度な視覚変換器であるIRISformerが、逆レンダリングに必要なシングルタスクとマルチタスクの推論の両方で優れていることを示す。
具体的には,屋内シーンの単一画像から深度,正規度,空間変化アルベド,粗さ,照明を同時に推定するトランスフォーマーアーキテクチャを提案する。
ベンチマークデータセットを用いた評価では、上記の各タスクについて最先端の結果が示され、オブジェクト挿入や物質編集などの応用を、制約のない1つの実画像で実現する。
論文 参考訳(メタデータ) (2022-06-16T19:50:55Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - PhySG: Inverse Rendering with Spherical Gaussians for Physics-based
Material Editing and Relighting [60.75436852495868]
本稿では、RGB入力画像からジオメトリ、マテリアル、イルミネーションをゼロから再構築する逆レンダリングパイプラインPhySGを紹介します。
我々は合成データと実データの両方を用いて,新しい視点のレンダリングを可能にするだけでなく,物質や照明の物理ベースの外観編集を可能にすることを実証した。
論文 参考訳(メタデータ) (2021-04-01T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。