論文の概要: Dynamic Sampling Rate: Harnessing Frame Coherence in Graphics
Applications for Energy-Efficient GPUs
- arxiv url: http://arxiv.org/abs/2202.10533v1
- Date: Mon, 21 Feb 2022 21:15:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 08:17:35.351377
- Title: Dynamic Sampling Rate: Harnessing Frame Coherence in Graphics
Applications for Energy-Efficient GPUs
- Title(参考訳): 動的サンプリングレート:省エネgpuのためのグラフィックスアプリケーションにおけるフレームコヒーレンスの利用
- Authors: Mart\'i Anglada, Enrique de Lucas, Joan-Manuel Parcerisa, Juan L.
Arag\'on and Antonio Gonz\'alez
- Abstract要約: 本研究は,グラフィックアプリケーションの冗長性を低減し,エネルギー効率を向上させるハードウェア機構である動的サンプリングレート(DSR)を提案する。
DSRで拡張された最先端のモバイルGPUアーキテクチャの性能を多種多様なアプリケーションで評価する。
- 参考スコア(独自算出の注目度): 1.0433988610452742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In real-time rendering, a 3D scene is modelled with meshes of triangles that
the GPU projects to the screen. They are discretized by sampling each triangle
at regular space intervals to generate fragments which are then added texture
and lighting effects by a shader program. Realistic scenes require detailed
geometric models, complex shaders, high-resolution displays and high screen
refreshing rates, which all come at a great compute time and energy cost. This
cost is often dominated by the fragment shader, which runs for each sampled
fragment. Conventional GPUs sample the triangles once per pixel, however, there
are many screen regions containing low variation that produce identical
fragments and could be sampled at lower than pixel-rate with no loss in
quality. Additionally, as temporal frame coherence makes consecutive frames
very similar, such variations are usually maintained from frame to frame. This
work proposes Dynamic Sampling Rate (DSR), a novel hardware mechanism to reduce
redundancy and improve the energy efficiency in graphics applications. DSR
analyzes the spatial frequencies of the scene once it has been rendered. Then,
it leverages the temporal coherence in consecutive frames to decide, for each
region of the screen, the lowest sampling rate to employ in the next frame that
maintains image quality. We evaluate the performance of a state-of-the-art
mobile GPU architecture extended with DSR for a wide variety of applications.
Experimental results show that DSR is able to remove most of the redundancy
inherent in the color computations at fragment granularity, which brings
average speedups of 1.68x and energy savings of 40%.
- Abstract(参考訳): リアルタイムレンダリングでは、3DシーンはGPUがスクリーンに投影する三角形のメッシュでモデル化される。
通常の空間間隔で各三角形をサンプリングして識別し、シェーダープログラムによってテクスチャと照明効果を追加するフラグメントを生成する。
リアルなシーンには、詳細な幾何学的モデル、複雑なシェーダー、高解像度ディスプレイ、高いスクリーンリフレッシュレートが必要です。
このコストはしばしば、サンプルされた各フラグメントに対して実行されるフラグメントシェーダによって支配される。
従来のgpuは1ピクセルに1回、三角形をサンプリングするが、同じフラグメントを生成し、品質を損なうことなく、ピクセルレートよりも低い値でサンプリングできる画面領域は少なくない。
さらに、時間フレームコヒーレンスは連続するフレームに非常によく似ているため、このようなバリエーションは通常フレームからフレームに維持される。
本研究は,グラフィックアプリケーションの冗長性を低減し,エネルギー効率を向上させるハードウェア機構である動的サンプリングレート(DSR)を提案する。
DSRは、レンダリングされたシーンの空間周波数を分析する。
そして、連続するフレームの時間的コヒーレンスを利用して、画面の各領域において、画質を維持する次のフレームで採用する最も低いサンプリングレートを決定する。
DSRで拡張された最先端のモバイルGPUアーキテクチャの性能を多種多様なアプリケーションで評価する。
実験の結果、DSRはフラグメントの粒度における色計算に固有の冗長性の大部分を除去することができ、平均速度は1.68倍、省エネは40%となっている。
関連論文リスト
- VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - TRIPS: Trilinear Point Splatting for Real-Time Radiance Field Rendering [4.962171160815189]
本稿では,ガウス版とADOP版の両方のアイデアを組み合わせたTRIPS(Trilinear Splatting)を提案する。
次に、軽量ニューラルネットワークを使用して、スプラッター解像度を超える詳細を含む、ホールフリーなイメージを再構築する。
本評価は, リアルタイムフレームレートを60フレーム/秒に維持しつつ, レンダリング品質の観点から, TRIPSが既存の最先端手法を超越していることを示す。
論文 参考訳(メタデータ) (2024-01-11T16:06:36Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [50.35729913765043]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - Compressed 3D Gaussian Splatting for Accelerated Novel View Synthesis [0.552480439325792]
スパース画像集合からの新規なビュー合成のために,3次元ガウススプラット表現を最適化した高忠実度シーン再構成を導入した。
本稿では,感性を考慮したベクトルクラスタリングと量子化学習を併用した3次元ガウススプラット表現を用いて,方向色とガウスパラメータを圧縮する手法を提案する。
論文 参考訳(メタデータ) (2023-11-17T14:40:43Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction
on Mobile Devices [55.95408465285477]
モバイル端末に暗黙的テクスチャを付加したtextbfSurf$ace 再構成手法を提案する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - 3D Gaussian Splatting for Real-Time Radiance Field Rendering [4.320393382724066]
競争力のあるトレーニング時間を維持しながら、最先端の視覚的品質を達成するための3つの重要な要素を紹介します。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2023-08-08T06:37:06Z) - ExWarp: Extrapolation and Warping-based Temporal Supersampling for
High-frequency Displays [0.7734726150561089]
ビデオゲームや仮想現実アプリケーションでの利用が増えているため、高周波ディスプレイは急速に普及している。
本稿では,過去のフレームや将来のフレームに基づいて新しいフレームを予測することによって,現代的なディスプレイのスムーズな体験を提供するためのフレームレートの向上を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:32:27Z) - NeRFPlayer: A Streamable Dynamic Scene Representation with Decomposed
Neural Radiance Fields [99.57774680640581]
本稿では、高速な再構成、コンパクトなモデリング、およびストリーム可能なレンダリングが可能な効率的なフレームワークを提案する。
本稿では, 時間特性に応じて4次元空間を分解することを提案する。4次元空間の点は, 静的, 変形, および新しい領域の3つのカテゴリに属する確率に関連付けられている。
論文 参考訳(メタデータ) (2022-10-28T07:11:05Z) - PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images [75.87721926918874]
PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
論文 参考訳(メタデータ) (2022-08-17T03:42:29Z) - VoGE: A Differentiable Volume Renderer using Gaussian Ellipsoids for
Analysis-by-Synthesis [62.47221232706105]
本稿では,ガウス再構成カーネルをボリュームプリミティブとして利用するVoGEを提案する。
本稿では,VoGEを用いて効率よくレンダリングを行うために,体積密度集約と粗大な描画戦略に関する近似クローズフォーム解を提案する。
VoGEは、オブジェクトポーズ推定、形状/テクスチャフィッティング、推論など、様々な視覚タスクに適用された場合、SoTAより優れている。
論文 参考訳(メタデータ) (2022-05-30T19:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。