論文の概要: City-on-Web: Real-time Neural Rendering of Large-scale Scenes on the Web
- arxiv url: http://arxiv.org/abs/2312.16457v1
- Date: Wed, 27 Dec 2023 08:00:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 19:28:44.120155
- Title: City-on-Web: Real-time Neural Rendering of Large-scale Scenes on the Web
- Title(参考訳): City-on-Web: Web上の大規模シーンのリアルタイムニューラルレンダリング
- Authors: Kaiwen Song, Juyong Zhang
- Abstract要約: NeRFは、様々な環境にまたがる複雑な細部を捉えながら、3Dシーンの再構築を著しく進めている。
そこで我々は,City-on-Webを提案する。City-on-Webは,それを管理可能なブロックに分割し,それぞれが独自のLevel-of-Detailを持つ。
資源制約のある環境で大規模シーンのリアルタイムレンダリングを初めて実現したのは,我々の新しい表現と,慎重に設計されたトレーニング/推論プロセスのおかげです。
- 参考スコア(独自算出の注目度): 33.49361728267973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: NeRF has significantly advanced 3D scene reconstruction, capturing intricate
details across various environments. Existing methods have successfully
leveraged radiance field baking to facilitate real-time rendering of small
scenes. However, when applied to large-scale scenes, these techniques encounter
significant challenges, struggling to provide a seamless real-time experience
due to limited resources in computation, memory, and bandwidth. In this paper,
we propose City-on-Web, which represents the whole scene by partitioning it
into manageable blocks, each with its own Level-of-Detail, ensuring high
fidelity, efficient memory management and fast rendering. Meanwhile, we
carefully design the training and inference process such that the final
rendering result on web is consistent with training. Thanks to our novel
representation and carefully designed training/inference process, we are the
first to achieve real-time rendering of large-scale scenes in
resource-constrained environments. Extensive experimental results demonstrate
that our method facilitates real-time rendering of large-scale scenes on a web
platform, achieving 32FPS at 1080P resolution with an RTX 3060 GPU, while
simultaneously achieving a quality that closely rivals that of state-of-the-art
methods. Project page: https://ustc3dv.github.io/City-on-Web/
- Abstract(参考訳): NeRFは、様々な環境にまたがる複雑な詳細を捉えながら、3Dシーンの大幅な再構築を行っている。
既存の方法は、小さなシーンのリアルタイムレンダリングを容易にするために、レイディアンスフィールドベーキングをうまく活用している。
しかしながら、大規模なシーンに適用すると、計算、メモリ、帯域幅の制限により、シームレスなリアルタイムエクスペリエンスの提供に苦慮するなど、これらのテクニックは大きな課題に直面する。
そこで,本稿では,各シーンをそれぞれ独自のレベル・オブ・ディテールを持つ管理可能なブロックに分割し,高忠実性,効率的なメモリ管理,高速なレンダリングを実現し,シーン全体を表現したcity-on-webを提案する。
一方、Web上の最終的なレンダリング結果がトレーニングと一致するように、トレーニングおよび推論プロセスを慎重に設計する。
資源制約のある環境で大規模シーンのリアルタイムレンダリングを初めて実現したのは,我々の新しい表現と,慎重に設計されたトレーニング/推論プロセスのおかげです。
RTX 3060 GPU で 1080P 解像度で 32FPS を達成し,また最先端の手法と密に競合する品質を実現し,Web プラットフォーム上での大規模シーンのリアルタイムレンダリングを容易にすることを実証した。
プロジェクトページ: https://ustc3dv.github.io/City-on-Web/
関連論文リスト
- Plenoptic PNG: Real-Time Neural Radiance Fields in 150 KB [29.267039546199094]
本稿では,3次元シーンを2次元画像から非常にコンパクトな表現に符号化することを目的とする。
様々なプラットフォームでリアルタイムに送信、復号化、レンダリングを可能にする。
論文 参考訳(メタデータ) (2024-09-24T03:06:22Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction on Mobile Devices [53.28220984270622]
モバイル端末に暗黙的テクスチャを付加したtextbfSurf$ace 再構成手法を提案する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - Real-Time Neural Rasterization for Large Scenes [39.198327570559684]
本研究では,大規模シーンのリアルタイムなノベルビュー合成のための新しい手法を提案する。
既存のニューラルネットワークレンダリング手法は現実的な結果を生成するが、主に小規模なシーンで機能する。
私たちの仕事は、大規模な現実世界のシーンのリアルタイムレンダリングを可能にする最初のものです。
論文 参考訳(メタデータ) (2023-11-09T18:59:10Z) - UE4-NeRF:Neural Radiance Field for Real-Time Rendering of Large-Scale
Scene [52.21184153832739]
本研究では,大規模シーンのリアルタイムレンダリングに特化して設計されたUE4-NeRFと呼ばれるニューラルレンダリングシステムを提案する。
提案手法は,Unreal Engine 4 (UE4)のUnrealization Pipelineと組み合わせて,最大43FPSのフレームレートで4K解像度で大規模シーンのリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2023-10-20T04:01:35Z) - 3D Gaussian Splatting for Real-Time Radiance Field Rendering [4.320393382724066]
競争力のあるトレーニング時間を維持しながら、最先端の視覚的品質を達成するための3つの重要な要素を紹介します。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2023-08-08T06:37:06Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z) - Real-time Neural Radiance Caching for Path Tracing [67.46991813306708]
本稿では,パストレーシングによる大域照明のためのリアルタイムなニューラルラディアンスキャッシング手法を提案する。
我々のシステムは、完全にダイナミックなシーンを扱うように設計されており、照明、幾何学、材料に関する仮定は一切ない。
バイアスの少ないコストで大きなノイズ低減効果を示し、多くの難題に対して最先端のリアルタイム性能を報告した。
論文 参考訳(メタデータ) (2021-06-23T13:09:58Z) - Foveated Neural Radiance Fields for Real-Time and Egocentric Virtual
Reality [11.969281058344581]
高品質な3dグラフィックスは、レンダリングのために大量の詳細なシーンデータを必要とする。
この問題に対処する最近のアプローチには、リモートレンダリング/ストリーミングと3Dアセットのニューラル表現がある。
本稿では,最初の視線提示型3Dニューラル表現とビュー合成法を提案する。
論文 参考訳(メタデータ) (2021-03-30T14:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。