論文の概要: NeAR: Coupled Neural Asset-Renderer Stack
- arxiv url: http://arxiv.org/abs/2511.18600v1
- Date: Sun, 23 Nov 2025 19:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.919927
- Title: NeAR: Coupled Neural Asset-Renderer Stack
- Title(参考訳): NeAR: ニューラルアセット・レンダラーのスタックを結合
- Authors: Hong Li, Chongjie Ye, Houyuan Chen, Weiqing Xiao, Ziyang Yan, Lixing Xiao, Zhaoxi Chen, Jianfeng Xiang, Shaocong Xu, Xuhui Liu, Yikai Wang, Baochang Zhang, Xiaoguang Han, Jiaolong Yang, Hao Zhao,
- Abstract要約: NeAR: Coupled Neural AssetRenderer Stackを紹介します。
資産面では、Trellis Structured Structured 3D Latents上に構築し、光を均質化したニューラルアセットを導入する。
側面には、このニューラルネットワークアセットと明示的な埋め込みとHDR環境マップを使用して、リアルタイムでリライト可能なレンダリングを実現する照明対応ニューラルネットワークを設計する。
我々は,(1)Gバッファベースフォワードレンダリング,(2)ランダム・ライト・シングルイメージ再構成,(3)未知・シングルイメージ・ライティング,(4)新規・ビュー・ライティングの4つのタスクでNeARを検証する。
- 参考スコア(独自算出の注目度): 43.297502568364074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural asset authoring and neural rendering have emerged as fundamentally disjoint threads: one generates digital assets using neural networks for traditional graphics pipelines, while the other develops neural renderers that map conventional assets to images. However, the potential of jointly designing the asset representation and renderer remains largely unexplored. We argue that coupling them can unlock an end-to-end learnable graphics stack with benefits in fidelity, consistency, and efficiency. In this paper, we explore this possibility with NeAR: a Coupled Neural Asset-Renderer Stack. On the asset side, we build on Trellis-style Structured 3D Latents and introduce a lighting-homogenized neural asset: from a casually lit input, a rectified-flow backbone predicts a Lighting-Homogenized SLAT that encodes geometry and intrinsic material cues in a compact, view-agnostic latent. On the renderer side, we design a lighting-aware neural renderer that uses this neural asset, along with explicit view embeddings and HDR environment maps, to achieve real-time, relightable rendering. We validate NeAR on four tasks: (1) G-buffer-based forward rendering, (2) random-lit single-image reconstruction, (3) unknown-lit single-image relighting, and (4) novel-view relighting. Our coupled stack surpasses state-of-the-art baselines in both quantitative metrics and perceptual quality. We hope this coupled asset-renderer perspective inspires future graphics stacks that view neural assets and renderers as co-designed components instead of independent entities.
- Abstract(参考訳): ニューラルアセットのオーサリングとニューラルレンダリングは、基本的に不整合スレッドとして現れている。一方は、従来のグラフィックパイプラインにニューラルネットワークを使用してデジタルアセットを生成し、もう一方は従来のアセットをイメージにマッピングするニューラルアセットを開発している。
しかし、アセット表現とレンダラーを共同で設計する可能性はほとんど未解明のままである。
それらを結合することで、エンドツーエンドの学習可能なグラフィックスタックを、忠実さ、一貫性、効率性のメリットでアンロックできる、と私たちは主張する。
本稿では、この可能性をNeAR: Coupled Neural Asset-Renderer Stackを用いて検討する。
資産側では、Trellis型構造化3D潜水器をベースとして、カジュアルに照明された入力から整流したバックボーンが、幾何学的および固有物質キューをコンパクトで視野に依存しない潜水器にエンコードする光の均質化SLATを予測する。
レンダラー側では、このニューラルアセットと明示的なビュー埋め込みとHDR環境マップを使用して、リアルタイムで照らし出すことができるレンダリングを実現するために、照明を意識したニューラルレンダラーを設計する。
我々は,(1)Gバッファベースフォワードレンダリング,(2)ランダム・ライト・シングルイメージ再構成,(3)未知・シングルイメージ・ライティング,(4)新規・ビュー・ライティングの4つのタスクでNeARを検証する。
私たちの結合スタックは、定量的メトリクスと知覚的品質の両方において最先端のベースラインを超えています。
この組み合わせされたアセット・レンダラー・パースペクティブは、ニューラルネットワークとレンダラーを独立したエンティティではなく、共同設計されたコンポーネントとして見る、将来のグラフィックスタックを刺激することを期待しています。
関連論文リスト
- CE-NPBG: Connectivity Enhanced Neural Point-Based Graphics for Novel View Synthesis in Autonomous Driving Scenes [5.719388462440881]
大規模自動運転シーンにおける新しいビュー合成(NVS)手法であるCE-NPBGを提案する。
提案手法は,画像(カメラ)と同期生3D点雲(LiDAR)の2つのモードを利用するニューラルネットワーク技術である。
この接続を利用することで、レンダリング品質を大幅に改善し、実行時間とスケーラビリティを向上させる。
論文 参考訳(メタデータ) (2025-04-28T08:02:02Z) - PBR-NeRF: Inverse Rendering with Physics-Based Neural Fields [49.6405458373509]
シーン形状,材料,照明を共同で推定できる逆レンダリング(IR)モデルを提案する。
本手法は, 材料推定を必要とする他の逆レンダリングおよび3次元再構成フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-12-12T19:00:21Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - RNA: Relightable Neural Assets [5.955203575139312]
繊維(毛髪を含む)を素材とした高忠実な3Dアセットは、ハイエンドのリアルなレンダリングアプリケーションではユビキタスである。
シェーディングと散乱モデルは簡単ではなく、3Dコンテンツオーサリングソフトウェアだけでなく、すべてのダウンストリーム実装で行う必要がある。
我々は、線表現と基礎となる幾何学との初交点におけるエンドツーエンドシェーディングソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-14T23:37:19Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Human Performance Modeling and Rendering via Neural Animated Mesh [40.25449482006199]
従来のメッシュをニューラルレンダリングの新たなクラスでブリッジします。
本稿では,映像から人間の視点をレンダリングする新しい手法を提案する。
我々は、ARヘッドセットにバーチャルヒューマンパフォーマンスを挿入して、さまざまなプラットフォーム上でのアプローチを実証する。
論文 参考訳(メタデータ) (2022-09-18T03:58:00Z) - KiloNeuS: Implicit Neural Representations with Real-Time Global
Illumination [1.5749416770494706]
我々は、インタラクティブなフレームレートでパストレーシングシーンで描画できる新しいニューラルオブジェクト表現であるKiloNeuSを紹介する。
KiloNeuSは、共有シーンにおけるニューラルネットワークと古典的プリミティブ間の現実的な光相互作用のシミュレーションを可能にする。
論文 参考訳(メタデータ) (2022-06-22T07:33:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。