論文の概要: NARVis: Neural Accelerated Rendering for Real-Time Scientific Point Cloud Visualization
- arxiv url: http://arxiv.org/abs/2407.19097v1
- Date: Fri, 26 Jul 2024 21:21:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 19:52:44.993410
- Title: NARVis: Neural Accelerated Rendering for Real-Time Scientific Point Cloud Visualization
- Title(参考訳): NARVis: リアルタイム科学的ポイントクラウド可視化のためのニューラルアクセラレーションレンダリング
- Authors: Srinidhi Hegde, Kaur Kullman, Thomas Grubb, Leslie Lait, Stephen Guimond, Matthias Zwicker,
- Abstract要約: この研究は、ニューラルアクセラレーション・レンダー(NAR)という小説を紹介している。
NARは、ニューラルネットワーク遅延レンダリングフレームワークを使用して、大規模な科学的ポイントクラウドデータを視覚化する。
350万点のインタラクティブレンダリングのために, フレームレートを$126 fpsで実現した。
- 参考スコア(独自算出の注目度): 15.7907024889244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exploring scientific datasets with billions of samples in real-time visualization presents a challenge - balancing high-fidelity rendering with speed. This work introduces a novel renderer - Neural Accelerated Renderer (NAR), that uses the neural deferred rendering framework to visualize large-scale scientific point cloud data. NAR augments a real-time point cloud rendering pipeline with high-quality neural post-processing, making the approach ideal for interactive visualization at scale. Specifically, we train a neural network to learn the point cloud geometry from a high-performance multi-stream rasterizer and capture the desired postprocessing effects from a conventional high-quality renderer. We demonstrate the effectiveness of NAR by visualizing complex multidimensional Lagrangian flow fields and photometric scans of a large terrain and compare the renderings against the state-of-the-art high-quality renderers. Through extensive evaluation, we demonstrate that NAR prioritizes speed and scalability while retaining high visual fidelity. We achieve competitive frame rates of $>$ 126 fps for interactive rendering of $>$ 350M points (i.e., an effective throughput of $>$ 44 billion points per second) using $\sim$12 GB of memory on RTX 2080 Ti GPU. Furthermore, we show that NAR is generalizable across different point clouds with similar visualization needs and the desired post-processing effects could be obtained with substantial high quality even at lower resolutions of the original point cloud, further reducing the memory requirements.
- Abstract(参考訳): 何十億ものサンプルをリアルタイムで視覚化する科学的データセットを探索することは、高忠実度レンダリングとスピードのバランスをとるという課題を提示する。
この研究は、ニューラル遅延レンダリングフレームワークを使用して大規模な科学的ポイントクラウドデータを視覚化する新しいレンダラー、Neural Accelerated Renderer (NAR)を導入している。
NARは、高品質なニューラル後処理を備えたリアルタイムのポイントクラウドレンダリングパイプラインを拡張し、大規模にインタラクティブな視覚化に理想的なアプローチを提供する。
具体的には、ニューラルネットワークをトレーニングして、高性能なマルチストリームラスタライザから点雲幾何学を学習し、従来の高品質レンダラーから所望のポストプロセッシング効果を捉える。
複雑な多次元ラグランジアン流れ場と大規模地形の測光走査を可視化し,最先端の高品質レンダラーと比較することにより,NARの有効性を実証する。
広汎な評価により、NARは高い視力を維持しながら、速度とスケーラビリティを優先することを示した。
RTX 2080 Ti GPU上で12GBの$\sim$12 GBのメモリを使用して、インタラクティブレンダリングの$>$350Mポイント(すなわち、有効スループットは$>$44億ポイント/秒)の競合フレームレートを$>$126 fpsで達成します。
さらに, NAR は, 可視性が必要な異なる点群にまたがって一般化可能であること, 元の点群が低解像度であっても, 所望の事後処理効果がかなり高い品質で得られ, さらにメモリ要求を低減できることを示した。
関連論文リスト
- D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - VR-NeRF: High-Fidelity Virtualized Walkable Spaces [55.51127858816994]
本稿では,高忠実度キャプチャ,モデル再構成,リアルタイムレンダリングのためのエンドツーエンドシステムを提案する。
論文 参考訳(メタデータ) (2023-11-05T02:03:14Z) - Volume Feature Rendering for Fast Neural Radiance Field Reconstruction [11.05302598034426]
ニューラルレイディアンス場(NeRF)は、異なる位置と視点から撮影された多視点画像から現実的な新しいビューを合成することができる。
NeRFのレンダリングパイプラインでは、ニューラルネットワークはシーンを独立して表現したり、期待される色や密度のポイントのクエリ可能な特徴ベクトルを変換するために使用される。
提案手法では,まず,まず線の特徴ベクトルを描画し,次にニューラルネットワークにより最終画素色に変換する。
論文 参考訳(メタデータ) (2023-05-29T06:58:27Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - NEPHELE: A Neural Platform for Highly Realistic Cloud Radiance Rendering [33.06231530135657]
NEPHELEは,高リアルなクラウド放射率レンダリングのためのニューラルネットワークプラットフォームである。
超高速なニューラルラジアンスレンダリングに不透明光場を用いるためにi-NOLFを導入する。
さらに、クラウドVR/ARレンダリングから、一連のアプリケーションを通じて、クラウドレンダリングラディアンス(radiance)の能力を紹介します。
論文 参考訳(メタデータ) (2023-03-07T17:47:33Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - Neural Lumigraph Rendering [33.676795978166375]
最先端の(SOTA)ニューラルボリュームレンダリングアプローチは、トレーニングが遅く、高い画像解像度のために数分の推論(レンダリング)時間を必要とします。
本研究では,2次元画像のみを監督するシーンの暗黙の面と放射界を協調的に最適化するために,周期的アクティベーションを伴う高容量なニューラルシーン表現を採用する。
我々のニューラルレンダリングパイプラインは、SOTAニューラルボリュームレンダリングを約2桁加速し、暗黙のサーフェス表現は、ビュー依存テクスチャ情報によるメッシュのエクスポートを可能にするユニークなものです。
論文 参考訳(メタデータ) (2021-03-22T03:46:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。