論文の概要: Inverse Rendering of Translucent Objects using Physical and Neural
Renderers
- arxiv url: http://arxiv.org/abs/2305.08336v1
- Date: Mon, 15 May 2023 04:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 16:09:10.053506
- Title: Inverse Rendering of Translucent Objects using Physical and Neural
Renderers
- Title(参考訳): 物理およびニューラルレンダラを用いた半透明物体の逆レンダリング
- Authors: Chenhao Li, Trung Thanh Ngo, Hajime Nagahara
- Abstract要約: 本研究では,半透明物体の1対の撮像画像のみから3次元形状,空間的反射率,均質散乱パラメータ,環境照度を推定する逆モデルを提案する。
2つの再構成は微分可能であるため、パラメータ推定を補助するために再構成損失を計算することができる。
我々は117Kシーンからなる半透明物体の大規模合成データセットを構築した。
- 参考スコア(独自算出の注目度): 13.706425832518093
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose an inverse rendering model that estimates 3D shape,
spatially-varying reflectance, homogeneous subsurface scattering parameters,
and an environment illumination jointly from only a pair of captured images of
a translucent object. In order to solve the ambiguity problem of inverse
rendering, we use a physically-based renderer and a neural renderer for scene
reconstruction and material editing. Because two renderers are differentiable,
we can compute a reconstruction loss to assist parameter estimation. To enhance
the supervision of the proposed neural renderer, we also propose an augmented
loss. In addition, we use a flash and no-flash image pair as the input. To
supervise the training, we constructed a large-scale synthetic dataset of
translucent objects, which consists of 117K scenes. Qualitative and
quantitative results on both synthetic and real-world datasets demonstrated the
effectiveness of the proposed model.
- Abstract(参考訳): 本研究では,半透明物体の1対の撮像画像のみから,3次元形状,空間的反射率,均質な地下散乱パラメータ,および環境照明を共同で推定する逆レンダリングモデルを提案する。
逆レンダリングの曖昧さ問題を解決するために,物理的ベースレンダラとニューラルネットワークレンダラを用いてシーンの再構成と素材編集を行う。
2つのレンダラーは微分可能であるため、パラメータ推定を補助するために再構成損失を計算することができる。
また,提案するニューラルレンダラーの監視を強化するために,拡張損失を提案する。
さらに、フラッシュと非フラッシュ画像ペアを入力として使用します。
トレーニングを監督するために,117Kシーンからなる半透明物体の大規模合成データセットを構築した。
合成データと実世界のデータセットの質的および定量的結果から,提案モデルの有効性が示された。
関連論文リスト
- Anisotropic Neural Representation Learning for High-Quality Neural
Rendering [0.0]
本稿では、学習可能なビュー依存機能を利用してシーン表現と再構成を改善する異方性ニューラル表現学習法を提案する。
我々の手法は柔軟であり、NeRFベースのフレームワークにプラグインできる。
論文 参考訳(メタデータ) (2023-11-30T07:29:30Z) - NEMTO: Neural Environment Matting for Novel View and Relighting Synthesis of Transparent Objects [28.62468618676557]
我々は3次元透明物体をモデル化する最初のエンドツーエンドニューラルネットワークパイプラインであるNEMTOを提案する。
透明物体の2次元像を入力として, 高品質な新規ビューと光合成が可能となる。
論文 参考訳(メタデータ) (2023-03-21T15:50:08Z) - SupeRVol: Super-Resolution Shape and Reflectance Estimation in Inverse
Volume Rendering [42.0782248214221]
SupeRVolは、超高解像度でカラー画像の集合から3次元形状と材料パラメータを復元する逆レンダリングパイプラインである。
個々の入力画像よりもシャープな再構成を生成し、低解像度画像からの3Dモデリングに最適である。
論文 参考訳(メタデータ) (2022-12-09T16:30:17Z) - GAN2X: Non-Lambertian Inverse Rendering of Image GANs [85.76426471872855]
GAN2Xは、教師なし画像のみをトレーニングに使用する、教師なし逆レンダリングの新しい手法である。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なしの単視3次元顔再構成の最先端性能を実現することができた。
論文 参考訳(メタデータ) (2022-06-18T16:58:49Z) - Differentiable Rendering for Synthetic Aperture Radar Imagery [0.0]
本稿では,3次元コンピュータグラフィックスの手法とニューラルレンダリングを組み合わせた合成開口レーダ(SAR)画像の微分可能レンダリング手法を提案する。
高忠実度シミュレーションSARデータを用いた限られたSAR画像からの3次元オブジェクト再構成の逆画像問題に対するアプローチを実証する。
論文 参考訳(メタデータ) (2022-04-04T05:27:40Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Differentiable Rendering with Perturbed Optimizers [85.66675707599782]
2Dイメージプロジェクションから3Dシーンを推論することは、コンピュータビジョンにおける中核的な問題の一つだ。
我々の研究は、よく知られた微分可能な定式化とランダムなスムーズなレンダリングの関連性を強調している。
提案手法を3次元シーン再構成に適用し,その利点を6次元ポーズ推定と3次元メッシュ再構成の課題に適用した。
論文 参考訳(メタデータ) (2021-10-18T08:56:23Z) - NeRFactor: Neural Factorization of Shape and Reflectance Under an
Unknown Illumination [60.89737319987051]
照明条件が不明な物体の多視点像から物体の形状と空間的反射率を復元する問題に対処する。
これにより、任意の環境照明下でのオブジェクトの新たなビューのレンダリングや、オブジェクトの材料特性の編集が可能になる。
論文 参考訳(メタデータ) (2021-06-03T16:18:01Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。