論文の概要: VR-Pipe: Streamlining Hardware Graphics Pipeline for Volume Rendering
- arxiv url: http://arxiv.org/abs/2502.17078v1
- Date: Mon, 24 Feb 2025 11:46:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:51:56.608530
- Title: VR-Pipe: Streamlining Hardware Graphics Pipeline for Volume Rendering
- Title(参考訳): VR-Pipe: ボリュームレンダリングのためのハードウェアグラフィックスパイプラインの合理化
- Authors: Junseo Lee, Jaisung Kim, Junyong Park, Jaewoong Sim,
- Abstract要約: 我々は,3次元ガウススプラッティング法である最先端の放射界法を実装し,グラフィックAPIを用いて,今日のグラフィックハードウェアにおける合成および実世界のシーンで評価する。
このVR-Pipeはグラフィクスハードウェアに2つのイノベーションをシームレスに統合し、ボリュームレンダリングのためのハードウェアパイプラインを合理化します。
我々の評価によると、VR-Pipeはレンダリング性能を大幅に改善し、従来のグラフィックスパイプラインよりも2.78倍のスピードアップを実現し、ハードウェアのオーバーヘッドを無視できる。
- 参考スコア(独自算出の注目度): 1.9470707535768061
- License:
- Abstract: Graphics rendering that builds on machine learning and radiance fields is gaining significant attention due to its outstanding quality and speed in generating photorealistic images from novel viewpoints. However, prior work has primarily focused on evaluating its performance through software-based rendering on programmable shader cores, leaving its performance when exploiting fixed-function graphics units largely unexplored. In this paper, we investigate the performance implications of performing radiance field rendering on the hardware graphics pipeline. In doing so, we implement the state-of-the-art radiance field method, 3D Gaussian splatting, using graphics APIs and evaluate it across synthetic and real-world scenes on today's graphics hardware. Based on our analysis, we present VR-Pipe, which seamlessly integrates two innovations into graphics hardware to streamline the hardware pipeline for volume rendering, such as radiance field methods. First, we introduce native hardware support for early termination by repurposing existing special-purpose hardware in modern GPUs. Second, we propose multi-granular tile binning with quad merging, which opportunistically blends fragments in shader cores before passing them to fixed-function blending units. Our evaluation shows that VR-Pipe greatly improves rendering performance, achieving up to a 2.78x speedup over the conventional graphics pipeline with negligible hardware overhead.
- Abstract(参考訳): 機械学習とラディアンスフィールドに基づくグラフィクスレンダリングは、新しい視点からフォトリアリスティックな画像を生成する際、優れた品質とスピードのために注目されている。
しかしながら、以前の研究は主にプログラム可能なシェーダコア上でのソフトウェアベースのレンダリングによる性能評価に重点を置いており、固定機能グラフィックスユニットを利用する場合の性能はほとんど探索されていない。
本稿では,ハードウェアグラフィックスパイプライン上でのラディアンスフィールドレンダリングの性能について検討する。
そこで我々は,最先端の放射界法である3次元ガウススプラッティングを実装し,グラフィックAPIを用いて,今日のグラフィックスハードウェアにおける合成および実世界のシーン間で評価を行う。
分析の結果,VR-Pipeはグラフィクスハードウェアに2つのイノベーションをシームレスに統合し,ラディアンスフィールド法などのボリュームレンダリングのためのハードウェアパイプラインの合理化を実現している。
まず、最新のGPUで既存の専用ハードウェアを再購入することで、早期終了のためのネイティブハードウェアサポートを導入する。
第2に, フラッグメントをシェーダコアに混入し, 固定機能混合ユニットに渡す, クワッドマージによる多結晶タイル結合を提案する。
我々の評価によると、VR-Pipeはレンダリング性能を大幅に改善し、従来のグラフィックスパイプラインよりも2.78倍のスピードアップを実現し、ハードウェアのオーバーヘッドを無視できる。
関連論文リスト
- VR-Splatting: Foveated Radiance Field Rendering via 3D Gaussian Splatting and Neural Points [4.962171160815189]
仮想現実システムの高性能な要求は、3DGSのような高速なシーン表現を活用する上で課題となる。
これらの障害に対する有望な解決策として、ファベレーテッドレンダリングを提案する。
本手法では, 周辺視の3DGSのスムーズなレンダリングと融合した, 周辺領域の神経点レンダリングのシャープで詳細な出力を生かした, 仮想現実感のための新たなファブリックレンダリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-23T14:54:48Z) - 3D Gaussian Ray Tracing: Fast Tracing of Particle Scenes [50.36933474990516]
本研究は, 粒子のトレーシング, 境界体積階層の構築, 高性能なレイトレーシングハードウェアを用いた各画素のレイキャストについて考察する。
半透明粒子の多量処理を効率的に行うために,有界メッシュで粒子をカプセル化するアルゴリズムについて述べる。
実験は、我々のアプローチの速度と精度、およびコンピュータグラフィックスとビジョンにおけるいくつかの応用を実証する。
論文 参考訳(メタデータ) (2024-07-09T17:59:30Z) - FaceFolds: Meshed Radiance Manifolds for Efficient Volumetric Rendering of Dynamic Faces [21.946327323788275]
動的顔の3Dレンダリングは難しい問題である。
本稿では,アクターの動的顔パフォーマンスの高品質なレンダリングを可能にする新しい表現を提案する。
論文 参考訳(メタデータ) (2024-04-22T00:44:13Z) - Feature 3DGS: Supercharging 3D Gaussian Splatting to Enable Distilled Feature Fields [54.482261428543985]
ニューラル・ラジアンス・フィールドを使用する手法は、新しいビュー合成のような従来のタスクに汎用的である。
3次元ガウシアンスプラッティングは, 実時間ラディアンス場レンダリングにおける最先端の性能を示した。
この問題を効果的に回避するために,アーキテクチャとトレーニングの変更を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:46:30Z) - VideoRF: Rendering Dynamic Radiance Fields as 2D Feature Video Streams [56.00479598817949]
VideoRFは、モバイルプラットフォーム上で動的ラディアンスフィールドのリアルタイムストリーミングとレンダリングを可能にする最初のアプローチである。
特徴画像ストリームを2次元ビデオコーデックで効率よく圧縮できることを示す。
我々は動的シーンのオンラインストリーミングとレンダリングを可能にするリアルタイムインタラクティブプレーヤーを開発した。
論文 参考訳(メタデータ) (2023-12-03T14:14:35Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction [53.28220984270622]
3次元再構成法はリアルタイムに3次元整合性のある高忠実度結果を生成する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - Real-Time Radiance Fields for Single-Image Portrait View Synthesis [85.32826349697972]
本研究では,1つの未提示画像からリアルタイムに3D表現を推測・描画するワンショット手法を提案する。
一つのRGB入力が与えられた場合、画像エンコーダは、ボリュームレンダリングによる3次元新規ビュー合成のためのニューラルラディアンスフィールドの標準三面体表現を直接予測する。
提案手法は消費者ハードウェア上で高速(24fps)であり,テスト時間最適化を必要とする強力なGAN反転ベースラインよりも高品質な結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T17:56:01Z) - Dressi: A Hardware-Agnostic Differentiable Renderer with Reactive Shader
Packing and Soft Rasterization [6.443504994276216]
微分可能レンダリング(DR)は、勾配に基づく最適化を通じて様々なコンピュータグラフィックスやコンピュータビジョンの応用を可能にする。
一般化ベースのアプローチは、汎用自動微分(AD)ライブラリと、実行時を使って手作りのDR固有のモジュールに基づいて構築されている。
ハードウェアに依存しないDressiという,新しいフルAD設計をベースとした,実用的なハードウェア非依存の差別化手法を提案する。
論文 参考訳(メタデータ) (2022-04-04T11:07:03Z) - Faster than FAST: GPU-Accelerated Frontend for High-Speed VIO [46.20949184826173]
この研究は、既存のコンピュータビジョンアルゴリズムを改善するために、効率的な低レベルGPUハードウェア固有の命令の適用性に焦点を当てている。
特に、非マックス抑圧とその後の特徴選択は、全体的な画像処理遅延への顕著な寄与である。
論文 参考訳(メタデータ) (2020-03-30T14:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。