論文の概要: Relightable Neural Assets
- arxiv url: http://arxiv.org/abs/2312.09398v1
- Date: Thu, 14 Dec 2023 23:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 17:35:27.307382
- Title: Relightable Neural Assets
- Title(参考訳): 再生可能な神経資産
- Authors: Krishna Mullia, Fujun Luan, Xin Sun, Milo\v{s} Ha\v{s}an
- Abstract要約: 繊維(毛髪を含む)を素材とした高忠実な3Dアセットは、ハイエンドのリアルなレンダリングアプリケーションではユビキタスである。
シェーディングと散乱モデルは簡単ではなく、3Dコンテンツオーサリングソフトウェアだけでなく、すべてのダウンストリーム実装で行う必要がある。
我々は、線表現と基礎となる幾何学との初交点におけるエンドツーエンドシェーディングソリューションを提供する。
- 参考スコア(独自算出の注目度): 6.505632086931827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-fidelity 3D assets with materials composed of fibers (including hair),
complex layered material shaders, or fine scattering geometry are ubiquitous in
high-end realistic rendering applications. Rendering such models is
computationally expensive due to heavy shaders and long scattering paths.
Moreover, implementing the shading and scattering models is non-trivial and has
to be done not only in the 3D content authoring software (which is necessarily
complex), but also in all downstream rendering solutions. For example, web and
mobile viewers for complex 3D assets are desirable, but frequently cannot
support the full shading complexity allowed by the authoring application. Our
goal is to design a neural representation for 3D assets with complex shading
that supports full relightability and full integration into existing renderers.
We provide an end-to-end shading solution at the first intersection of a ray
with the underlying geometry. All shading and scattering is precomputed and
included in the neural asset; no multiple scattering paths need to be traced,
and no complex shading models need to be implemented to render our assets,
beyond a single neural architecture. We combine an MLP decoder with a feature
grid. Shading consists of querying a feature vector, followed by an MLP
evaluation producing the final reflectance value. Our method provides
high-fidelity shading, close to the ground-truth Monte Carlo estimate even at
close-up views. We believe our neural assets could be used in practical
renderers, providing significant speed-ups and simplifying renderer
implementations.
- Abstract(参考訳): 繊維(毛髪を含む)、複雑な層状材料シェーダー、または微細散乱形状からなる高忠実な3dアセットは、ハイエンドのリアルレンダリングアプリケーションで広く使われている。
このようなモデルのレンダリングは、重いシェーダと長い散乱パスのために計算コストがかかる。
さらに、シェーディングと散乱モデルの実装は自明ではなく、3dコンテンツオーサリングソフトウェア(必ずしも複雑である必要はない)だけでなく、下流のすべてのレンダリングソリューションでも行わなければならない。
例えば、複雑な3Dアセットに対するWebとモバイルのビューアは望ましいが、オーサリングアプリケーションによって許されるシェーディングの複雑さを完全にサポートできないことが多い。
私たちの目標は、既存のレンダラへの完全なリフレアビリティと完全な統合をサポートする複雑なシェーディングを備えた、3dアセットのためのニューラル表現を設計することです。
我々は,線の最初の交点と底面の幾何学との終端対端のシェーディングソリューションを提供する。
すべてのシェーディングと散乱は前もって計算され、ニューラルアセットに含まれる。複数の散乱経路をトレースする必要はなく、単一のニューラルアーキテクチャを超えて、アセットをレンダリングするために複雑なシェーディングモデルを実装する必要もない。
MLPデコーダと機能グリッドを組み合わせる。
シェーディングは特徴ベクトルを問合せし、次に最後の反射率値を生成するMPP評価を行う。
本手法は,クローズアップビューにおいてもモンテカルロ推定値に近い高忠実性シェーディングを提供する。
当社のニューラルアセットは実用的なレンダラーで使用することができ、大幅なスピードアップとレンダラー実装の簡素化が期待できます。
関連論文リスト
- GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - RelitLRM: Generative Relightable Radiance for Large Reconstruction Models [52.672706620003765]
本稿では,新しい照明下での3Dオブジェクトの高品質なガウススプレイティング表現を生成するためのRelitLRMを提案する。
複雑なキャプチャと遅い最適化を必要とする従来の逆レンダリングとは異なり、RelitLRMはフィードフォワードトランスフォーマーベースのモデルを採用している。
スパースビューフィードフォワードRelitLRMは、最先端の密集ビュー最適化ベースラインに対して、競争力のあるリライティング結果を提供する。
論文 参考訳(メタデータ) (2024-10-08T17:40:01Z) - RNG: Relightable Neural Gaussians [19.197099019727826]
RNGは、楽しいガウスの斬新な表現である。
本稿では,ニューラル3DGSフレームワーク下での影の深度改善ネットワークを提案する。
トレーニングで約20ドル、レンダリングで約600ドル、以前の作業よりも高速です。
論文 参考訳(メタデータ) (2024-09-29T13:32:24Z) - Neural Assets: Volumetric Object Capture and Rendering for Interactive
Environments [8.258451067861932]
本研究では,現実の物体を日常の環境に忠実かつ迅速に捕獲する手法を提案する。
我々は、新しい神経表現を用いて、透明な物体部品などの効果を再構築し、物体の外観を保ちます。
これにより、提案されたニューラルネットワークアセットを既存のメッシュ環境やオブジェクトとシームレスに統合することが可能になる。
論文 参考訳(メタデータ) (2022-12-12T18:55:03Z) - Multi-View Mesh Reconstruction with Neural Deferred Shading [0.8514420632209809]
最先端の手法では、ニューラルサーフェス表現とニューラルシェーディングの両方を用いる。
曲面を三角形メッシュとして表現し、三角形の描画とニューラルシェーディングを中心に、微分可能なレンダリングパイプラインを構築します。
パブリックな3次元再構成データセットを用いてランタイムの評価を行い、最適化において従来のベースラインの復元精度を上回りながら、従来のベースラインの再構築精度に適合できることを示す。
論文 参考訳(メタデータ) (2022-12-08T16:29:46Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - 3D Scene Creation and Rendering via Rough Meshes: A Lighting Transfer Avenue [49.62477229140788]
本稿では,再構成された3Dモデルを3Dシーン作成やレンダリングなどの実用的な3Dモデリングパイプラインに柔軟に統合する方法について述べる。
我々はNFRとPBRを橋渡しする照明伝達ネットワーク(LighTNet)を提案する。
論文 参考訳(メタデータ) (2022-11-27T13:31:00Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z) - Shape From Tracing: Towards Reconstructing 3D Object Geometry and SVBRDF
Material from Images via Differentiable Path Tracing [16.975014467319443]
識別可能なパストレースは、複雑な外観効果を再現できるため、魅力的なフレームワークである。
本稿では,初期粗いメッシュとメッシュファセット単位の材料表現を改良するために,微分可能なレイトレーシングを利用する方法を示す。
また、制約のない環境下での現実世界の物体の初期再構成を洗練させる方法についても示す。
論文 参考訳(メタデータ) (2020-12-06T18:55:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。