論文の概要: NEPHELE: A Neural Platform for Highly Realistic Cloud Radiance Rendering
- arxiv url: http://arxiv.org/abs/2303.04086v1
- Date: Tue, 7 Mar 2023 17:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 14:27:49.864110
- Title: NEPHELE: A Neural Platform for Highly Realistic Cloud Radiance Rendering
- Title(参考訳): nephele: 高度に現実的なクラウドラミアンスレンダリングのためのニューラルプラットフォーム
- Authors: Haimin Luo, Siyuan Zhang, Fuqiang Zhao, Haotian Jing, Penghao Wang,
Zhenxiao Yu, Dongxue Yan, Junran Ding, Boyuan Zhang, Qiang Hu, Shu Yin, Lan
Xu, JIngyi Yu
- Abstract要約: NEPHELEは,高リアルなクラウド放射率レンダリングのためのニューラルネットワークプラットフォームである。
超高速なニューラルラジアンスレンダリングに不透明光場を用いるためにi-NOLFを導入する。
さらに、クラウドVR/ARレンダリングから、一連のアプリケーションを通じて、クラウドレンダリングラディアンス(radiance)の能力を紹介します。
- 参考スコア(独自算出の注目度): 33.06231530135657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We have recently seen tremendous progress in neural rendering (NR) advances,
i.e., NeRF, for photo-real free-view synthesis. Yet, as a local technique based
on a single computer/GPU, even the best-engineered Instant-NGP or i-NGP cannot
reach real-time performance when rendering at a high resolution, and often
requires huge local computing resources. In this paper, we resort to cloud
rendering and present NEPHELE, a neural platform for highly realistic cloud
radiance rendering. In stark contrast with existing NR approaches, our NEPHELE
allows for more powerful rendering capabilities by combining multiple remote
GPUs and facilitates collaboration by allowing multiple people to view the same
NeRF scene simultaneously. We introduce i-NOLF to employ opacity light fields
for ultra-fast neural radiance rendering in a one-query-per-ray manner. We
further resemble the Lumigraph with geometry proxies for fast ray querying and
subsequently employ a small MLP to model the local opacity lumishperes for
high-quality rendering. We also adopt Perfect Spatial Hashing in i-NOLF to
enhance cache coherence. As a result, our i-NOLF achieves an order of magnitude
performance gain in terms of efficiency than i-NGP, especially for the
multi-user multi-viewpoint setting under cloud rendering scenarios. We further
tailor a task scheduler accompanied by our i-NOLF representation and
demonstrate the advance of our methodological design through a comprehensive
cloud platform, consisting of a series of cooperated modules, i.e., render
farms, task assigner, frame composer, and detailed streaming strategies. Using
such a cloud platform compatible with neural rendering, we further showcase the
capabilities of our cloud radiance rendering through a series of applications,
ranging from cloud VR/AR rendering.
- Abstract(参考訳): ニューラルレンダリング(NR)の進歩、すなわち、フォトリアルなフリービュー合成におけるNeRFは、最近著しく進歩している。
しかし、単一のコンピュータ/GPUをベースとしたローカル技術として、最高の技術であるInstant-NGPやi-NGPでさえ、高解像度でレンダリングする際にリアルタイムのパフォーマンスに到達できず、しばしば巨大なローカルコンピューティングリソースを必要とする。
本稿では,クラウドレンダリングを活用し,リアルタイムなクラウドラディアンスレンダリングのためのニューラルネットワークプラットフォームであるNEPHELEを提案する。
既存のNRアプローチとは対照的に、NEPHELEは複数のリモートGPUを組み合わせることで、より強力なレンダリング機能を実現し、複数の人が同じNeRFシーンを同時に見ることができるようにすることで、コラボレーションを容易にします。
我々は,超高速なニューラルラジアンスレンダリングに不透明光場を用いるために,i-NOLFを導入した。
我々はさらに,高速な光線問合せのための幾何プロキシを備えたlumigraphに類似し,さらに,局所不透明度lumishperesをモデル化する小mlpを用いて高品質レンダリングを行う。
また、キャッシュコヒーレンスを高めるために、i-NOLFにパーフェクト空間ハッシュを採用する。
その結果,i-NOLF は i-NGP よりも高効率であり,特にクラウドレンダリングシナリオ下でのマルチユーザ多視点設定において性能向上が達成された。
我々はさらに,i-NOLF表現を伴ってタスクスケジューラを調整し,一連の協調型モジュール,すなわち,タスクアサインラ,フレームコンストラクタ,詳細なストリーミング戦略からなる,総合的なクラウドプラットフォームによる方法論設計の進展を実証する。
ニューラルレンダリングと互換性のあるこのようなクラウドプラットフォームを使用することで、クラウドVR/ARレンダリングから、一連のアプリケーションを通じて、クラウドラディアンスレンダリングの能力をさらに示します。
関連論文リスト
- NARVis: Neural Accelerated Rendering for Real-Time Scientific Point Cloud Visualization [15.7907024889244]
この研究は、ニューラルアクセラレーション・レンダー(NAR)という小説を紹介している。
NARは、ニューラルネットワーク遅延レンダリングフレームワークを使用して、大規模な科学的ポイントクラウドデータを視覚化する。
350万点のインタラクティブレンダリングのために, フレームレートを$126 fpsで実現した。
論文 参考訳(メタデータ) (2024-07-26T21:21:13Z) - NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for
Enhanced Indoor View Synthesis [51.49008959209671]
本稿では,室内ビュー合成の品質と効率を高めるために,ボリューム表現を活用する新しいアプローチであるVoxNeRFを紹介する。
我々は,空間的特徴を適応的に捉えるためにマルチレゾリューション・ハッシュ・グリッドを使用し,室内シーンの閉塞や複雑な形状を効果的に管理する。
我々は,3つの屋内データセットに対するアプローチを検証するとともに,VoxNeRFが最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - VR-NeRF: High-Fidelity Virtualized Walkable Spaces [55.51127858816994]
本稿では,高忠実度キャプチャ,モデル再構成,リアルタイムレンダリングのためのエンドツーエンドシステムを提案する。
論文 参考訳(メタデータ) (2023-11-05T02:03:14Z) - Reconstructive Latent-Space Neural Radiance Fields for Efficient 3D
Scene Representations [34.836151514152746]
本研究では,自動エンコーダとNeRFを組み合わせることで,遅延特徴を描画し,畳み込み復号する手法を提案する。
結果として、潜在空間のNeRFは、標準色空間のNeRFよりも高品質で新しいビューを生成することができる。
AEアーキテクチャを小さくすることで効率と画質のトレードオフを制御でき、性能をわずかに低下させるだけで13倍以上高速なレンダリングを実現できます。
論文 参考訳(メタデータ) (2023-10-27T03:52:08Z) - Adaptive Multi-NeRF: Exploit Efficient Parallelism in Adaptive Multiple
Scale Neural Radiance Field Rendering [3.8200916793910973]
ニューラル・ラジアンス・フィールド(NeRF)の最近の進歩は、3次元シーンの出現を暗黙のニューラルネットワークとして表す重要な可能性を示している。
しかし、長いトレーニングとレンダリングのプロセスは、リアルタイムレンダリングアプリケーションにこの有望なテクニックを広く採用することを妨げる。
本稿では,大規模シーンのニューラルネットワークレンダリングプロセスの高速化を目的とした適応型マルチNeRF手法を提案する。
論文 参考訳(メタデータ) (2023-10-03T08:34:49Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - Grid-guided Neural Radiance Fields for Large Urban Scenes [146.06368329445857]
近年のアプローチでは、シーンを地理的に分割し、複数のサブNeRFを採用して各領域を個別にモデル化する手法が提案されている。
もう一つの解決策は、計算効率が良く、大きなシーンに自然にスケールできる機能グリッド表現を使用することである。
本稿では,大規模都市における高忠実度レンダリングを実現し,計算効率を向上する枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-24T13:56:45Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。