論文の概要: City-on-Web: Real-time Neural Rendering of Large-scale Scenes on the Web
- arxiv url: http://arxiv.org/abs/2312.16457v2
- Date: Mon, 1 Apr 2024 03:10:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 11:23:11.373777
- Title: City-on-Web: Real-time Neural Rendering of Large-scale Scenes on the Web
- Title(参考訳): City-on-Web: Web上の大規模シーンのリアルタイムニューラルレンダリング
- Authors: Kaiwen Song, Xiaoyi Zeng, Chenqu Ren, Juyong Zhang,
- Abstract要約: City-on-Webは、Web上の大規模シーンをリアルタイムにレンダリングする最初の方法である。
本稿では,Web上のGTX 3060 GPUを用いて,約32FPSの大規模シーンのリアルタイムレンダリングを実現する。
- 参考スコア(独自算出の注目度): 26.92522314818356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing neural radiance field-based methods can achieve real-time rendering of small scenes on the web platform. However, extending these methods to large-scale scenes still poses significant challenges due to limited resources in computation, memory, and bandwidth. In this paper, we propose City-on-Web, the first method for real-time rendering of large-scale scenes on the web. We propose a block-based volume rendering method to guarantee 3D consistency and correct occlusion between blocks, and introduce a Level-of-Detail strategy combined with dynamic loading/unloading of resources to significantly reduce memory demands. Our system achieves real-time rendering of large-scale scenes at approximately 32FPS with RTX 3060 GPU on the web and maintains rendering quality comparable to the current state-of-the-art novel view synthesis methods.
- Abstract(参考訳): 既存のニューラルラディアンス場に基づく手法は、Webプラットフォーム上で小さなシーンをリアルタイムにレンダリングすることができる。
しかし、これらの手法を大規模なシーンに拡張することは、計算、メモリ、帯域幅の資源が限られているため、依然として大きな課題となっている。
本稿では,Web上の大規模シーンをリアルタイムにレンダリングする最初の方法であるCity-on-Webを提案する。
本稿では,ブロック間の3次元整合性を保証するブロックベースのボリュームレンダリング手法を提案し,メモリ要求を著しく低減するために,リソースの動的ロード/アンロードを併用したレベル・オブ・ディーテール戦略を提案する。
本システムは,Web上のRTX 3060 GPUを用いた32FPS程度の大規模シーンのリアルタイムレンダリングを実現し,現在の最先端の新規ビュー合成手法に匹敵するレンダリング品質を維持する。
関連論文リスト
- Plenoptic PNG: Real-Time Neural Radiance Fields in 150 KB [29.267039546199094]
本稿では,3次元シーンを2次元画像から非常にコンパクトな表現に符号化することを目的とする。
様々なプラットフォームでリアルタイムに送信、復号化、レンダリングを可能にする。
論文 参考訳(メタデータ) (2024-09-24T03:06:22Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction on Mobile Devices [53.28220984270622]
モバイル端末に暗黙的テクスチャを付加したtextbfSurf$ace 再構成手法を提案する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - Real-Time Neural Rasterization for Large Scenes [39.198327570559684]
本研究では,大規模シーンのリアルタイムなノベルビュー合成のための新しい手法を提案する。
既存のニューラルネットワークレンダリング手法は現実的な結果を生成するが、主に小規模なシーンで機能する。
私たちの仕事は、大規模な現実世界のシーンのリアルタイムレンダリングを可能にする最初のものです。
論文 参考訳(メタデータ) (2023-11-09T18:59:10Z) - UE4-NeRF:Neural Radiance Field for Real-Time Rendering of Large-Scale
Scene [52.21184153832739]
本研究では,大規模シーンのリアルタイムレンダリングに特化して設計されたUE4-NeRFと呼ばれるニューラルレンダリングシステムを提案する。
提案手法は,Unreal Engine 4 (UE4)のUnrealization Pipelineと組み合わせて,最大43FPSのフレームレートで4K解像度で大規模シーンのリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2023-10-20T04:01:35Z) - 3D Gaussian Splatting for Real-Time Radiance Field Rendering [4.320393382724066]
競争力のあるトレーニング時間を維持しながら、最先端の視覚的品質を達成するための3つの重要な要素を紹介します。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2023-08-08T06:37:06Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z) - Real-time Neural Radiance Caching for Path Tracing [67.46991813306708]
本稿では,パストレーシングによる大域照明のためのリアルタイムなニューラルラディアンスキャッシング手法を提案する。
我々のシステムは、完全にダイナミックなシーンを扱うように設計されており、照明、幾何学、材料に関する仮定は一切ない。
バイアスの少ないコストで大きなノイズ低減効果を示し、多くの難題に対して最先端のリアルタイム性能を報告した。
論文 参考訳(メタデータ) (2021-06-23T13:09:58Z) - Foveated Neural Radiance Fields for Real-Time and Egocentric Virtual
Reality [11.969281058344581]
高品質な3dグラフィックスは、レンダリングのために大量の詳細なシーンデータを必要とする。
この問題に対処する最近のアプローチには、リモートレンダリング/ストリーミングと3Dアセットのニューラル表現がある。
本稿では,最初の視線提示型3Dニューラル表現とビュー合成法を提案する。
論文 参考訳(メタデータ) (2021-03-30T14:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。