論文の概要: Material Transforms from Disentangled NeRF Representations
- arxiv url: http://arxiv.org/abs/2411.08037v1
- Date: Tue, 12 Nov 2024 18:59:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:20:27.231860
- Title: Material Transforms from Disentangled NeRF Representations
- Title(参考訳): 異方性NeRF表現からの物質変換
- Authors: Ivan Lopes, Jean-François Lalonde, Raoul de Charette,
- Abstract要約: 異なるシーン間で物質変換を伝達する新しい手法を提案する。
両方向反射率分布関数 (BRDF) を, 様々な条件下で観測された一対のシーンからマップする。
学習された変換は、同じ素材で見えないシーンに適用できるため、学習した変換を任意のレベルの強度で効果的にレンダリングすることができる。
- 参考スコア(独自算出の注目度): 23.688782106067166
- License:
- Abstract: In this paper, we first propose a novel method for transferring material transformations across different scenes. Building on disentangled Neural Radiance Field (NeRF) representations, our approach learns to map Bidirectional Reflectance Distribution Functions (BRDF) from pairs of scenes observed in varying conditions, such as dry and wet. The learned transformations can then be applied to unseen scenes with similar materials, therefore effectively rendering the transformation learned with an arbitrary level of intensity. Extensive experiments on synthetic scenes and real-world objects validate the effectiveness of our approach, showing that it can learn various transformations such as wetness, painting, coating, etc. Our results highlight not only the versatility of our method but also its potential for practical applications in computer graphics. We publish our method implementation, along with our synthetic/real datasets on https://github.com/astra-vision/BRDFTransform
- Abstract(参考訳): 本稿では,異なるシーンにまたがって物質変換を伝達する新しい手法を提案する。
両方向反射率分布関数 (BRDF) を, 乾燥, 湿潤などの様々な条件下で観測された一対のシーンから, 両方向反射率分布関数 (BRDF) をマッピングする。
学習された変換は、同じ素材で見えないシーンに適用できるため、学習した変換を任意のレベルの強度で効果的にレンダリングすることができる。
合成シーンと実世界の物体の広範囲にわたる実験により、我々のアプローチの有効性が検証され、湿性、塗装、塗布などの様々な変換を学習できることが示されている。
本研究の結果は,本手法の汎用性だけでなく,コンピュータグラフィックスにおける実用的応用の可能性も浮き彫りにしている。
メソッドの実装と合成/実データセットをhttps://github.com/astra-vision/BRDFTransformで公開しています。
関連論文リスト
- Triplet: Triangle Patchlet for Mesh-Based Inverse Rendering and Scene Parameters Approximation [0.0]
逆レンダリングは、光、幾何学、テクスチャ、材料を含むシーンの物理的特性を導き出そうとする。
メッシュは、多くのシミュレーションパイプラインで採用されている伝統的な表現として、いまだに逆レンダリングのラディアンスフィールドに限られた影響しか示していない。
本稿では,これらのパラメータを包括的に近似するメッシュベースの表現であるTriangle Patchlet (abbr. Triplet) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T09:59:11Z) - Learning Relighting and Intrinsic Decomposition in Neural Radiance Fields [21.057216351934688]
本研究は,リライティングと本質的な分解を併用する手法を提案する。
シーン内の光の変動を利用して擬似ラベルを生成することにより、本手法は本質的な分解のガイダンスを提供する。
提案手法は,実世界の合成データセットと実世界のデータセットの両方で検証し,有望な結果を得た。
論文 参考訳(メタデータ) (2024-06-16T21:10:37Z) - Diffusion Posterior Illumination for Ambiguity-aware Inverse Rendering [63.24476194987721]
画像からシーン特性を推定する逆レンダリングは、困難な逆問題である。
既存のソリューションの多くは、プリエントを逆レンダリングパイプラインに組み込んで、プラウシブルなソリューションを奨励している。
本稿では,自然照明マップ上で事前学習した確率拡散モデルを最適化フレームワークに統合する手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T12:39:28Z) - Neural Relighting with Subsurface Scattering by Learning the Radiance
Transfer Gradient [73.52585139592398]
本稿では,ボリュームレンダリングによる放射移動場学習のための新しいフレームワークを提案する。
我々は、我々のコードと、地下散乱効果を持つ新しい光ステージのオブジェクトデータセットを公開します。
論文 参考訳(メタデータ) (2023-06-15T17:56:04Z) - NeuS-PIR: Learning Relightable Neural Surface using Pre-Integrated Rendering [23.482941494283978]
本稿では,マルチビュー画像やビデオから可照性神経表面を復元するNeuS-PIR法を提案する。
NeRFや離散メッシュに基づく手法とは異なり,提案手法は暗黙のニューラルサーフェス表現を用いて高品質な幾何学を再構築する。
本手法は,現代のグラフィックスエンジンとシームレスに統合可能なリライトなどの高度なアプリケーションを実現する。
論文 参考訳(メタデータ) (2023-06-13T09:02:57Z) - Physics-based Indirect Illumination for Inverse Rendering [70.27534648770057]
本稿では,複数視点のRGB画像からシーンの照明,幾何学,材料を学習する物理ベースの逆レンダリング手法を提案する。
副産物として、我々の物理ベースの逆レンダリングモデルは、フレキシブルでリアルな素材編集やリライティングを容易にする。
論文 参考訳(メタデータ) (2022-12-09T07:33:49Z) - RISP: Rendering-Invariant State Predictor with Differentiable Simulation
and Rendering for Cross-Domain Parameter Estimation [110.4255414234771]
既存のソリューションでは、大量のトレーニングデータが必要か、未知のレンダリング設定への一般化性が欠如している。
本稿では、ドメインのランダム化と微分可能なレンダリング勾配を併用してこの問題に対処する手法を提案する。
提案手法は, 再構成誤差を大幅に低減し, 未知のレンダリング構成間の一般化性が向上する。
論文 参考訳(メタデータ) (2022-05-11T17:59:51Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Partially fake it till you make it: mixing real and fake thermal images
for improved object detection [29.13557322147509]
熱画像における物体検出の文脈における提案システムの性能について述べる。
我々の単一モード検出器はFLIR ADASデータセットの最先端結果を達成する。
論文 参考訳(メタデータ) (2021-06-25T12:56:09Z) - PhySG: Inverse Rendering with Spherical Gaussians for Physics-based
Material Editing and Relighting [60.75436852495868]
本稿では、RGB入力画像からジオメトリ、マテリアル、イルミネーションをゼロから再構築する逆レンダリングパイプラインPhySGを紹介します。
我々は合成データと実データの両方を用いて,新しい視点のレンダリングを可能にするだけでなく,物質や照明の物理ベースの外観編集を可能にすることを実証した。
論文 参考訳(メタデータ) (2021-04-01T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。