論文の概要: LCS: An AI-based Low-Complexity Scaler for Power-Efficient Super-Resolution of Game Content
- arxiv url: http://arxiv.org/abs/2507.22873v1
- Date: Wed, 30 Jul 2025 17:47:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.37384
- Title: LCS: An AI-based Low-Complexity Scaler for Power-Efficient Super-Resolution of Game Content
- Title(参考訳): LCS: ゲームコンテンツの高効率超解法のためのAIベースの低複雑さスケーラ
- Authors: Simon Pochinda, Momen K. Tageldeen, Mark Thompson, Tony Rinaldi, Troy Giorshev, Keith Lee, Jie Zhou, Frederick Walls,
- Abstract要約: 現代のゲームにおけるコンテンツレンダリングの複雑さは、GPUのワークロードの問題を招いた。
ニューラルプロセッシングユニット(NPU)のような低消費電力デバイスにGPU上のワークロードをオフロードできる、最先端の高効率超解像(ESR)モデルにインスパイアされたAIベースの低複雑性スケーラ(LCS)を提案する。
- 参考スコア(独自算出の注目度): 13.384316735936036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing complexity of content rendering in modern games has led to a problematic growth in the workload of the GPU. In this paper, we propose an AI-based low-complexity scaler (LCS) inspired by state-of-the-art efficient super-resolution (ESR) models which could offload the workload on the GPU to a low-power device such as a neural processing unit (NPU). The LCS is trained on GameIR image pairs natively rendered at low and high resolution. We utilize adversarial training to encourage reconstruction of perceptually important details, and apply reparameterization and quantization techniques to reduce model complexity and size. In our comparative analysis we evaluate the LCS alongside the publicly available AMD hardware-based Edge Adaptive Scaling Function (EASF) and AMD FidelityFX Super Resolution 1 (FSR1) on five different metrics, and find that the LCS achieves better perceptual quality, demonstrating the potential of ESR models for upscaling on resource-constrained devices.
- Abstract(参考訳): 現代のゲームにおけるコンテンツレンダリングの複雑さの増大は、GPUのワークロードの問題を招いた。
本稿では、GPU上のワークロードをニューラルネットワークユニット(NPU)などの低消費電力デバイスにオフロードできる最先端の高効率超解像(ESR)モデルにインスパイアされた、AIベースの低複雑性スケーラ(LCS)を提案する。
LCSは、低解像度と高解像度でネイティブにレンダリングされたGameIRイメージペアでトレーニングされている。
我々は、敵の訓練を利用して、知覚的に重要な詳細の再構築を促進するとともに、モデルの複雑さとサイズを減らすために、再パラメータ化と量子化技術を適用した。
我々の比較分析では、LCSと、利用可能なAMDハードウェアベースのEdge Adaptive Scaling Function (EASF) とAMD FidelityFX Super Resolution 1 (FSR1) を5つのメトリクスで比較し、LCSがより知覚的品質を達成し、リソース制約のあるデバイスをアップスケーリングするためのESRモデルの可能性を示す。
関連論文リスト
- SimpleGVR: A Simple Baseline for Latent-Cascaded Video Super-Resolution [55.14432034345353]
後続の超解像モデルの設計原理について検討し,その設計原理について検討する。
まず、ベースモデルの出力特性をよりよく模倣し、VSRモデルと上流ジェネレータとの整合性を確保するための2つのトレーニングペアを生成する方法を提案する。
第2に,(1)時間ステップサンプリング戦略,(2)低分解能(LR)入力に対する雑音増強効果の系統的解析を通じて,VSRモデル行動に対する批判的洞察を提供する。
論文 参考訳(メタデータ) (2025-06-24T17:57:26Z) - Low-Rank Adapters Meet Neural Architecture Search for LLM Compression [1.8434042562191815]
LLM(Large Language Models)の急速な拡張は、微調整と展開に必要な計算資源に関して重大な課題を提起している。
低ランクアダプタの最近の進歩は、これらのモデルのパラメータ効率のよい微調整(PEFT)において有効であることを示した。
本稿では,低ランク表現をニューラルアーキテクチャサーチ(NAS)技術と相乗化するための革新的なアプローチを包括的に論じる。
論文 参考訳(メタデータ) (2025-01-23T02:14:08Z) - SOLO: A Single Transformer for Scalable Vision-Language Modeling [74.05173379908703]
我々はvisiOn-Language mOdelingのための単一変換器SOLOを提案する。
SOLOのような統一された単一トランスフォーマーアーキテクチャは、LVLMにおけるこれらのスケーラビリティ上の懸念に効果的に対処する。
本稿では,オープンソースの7B LVLMであるSOLOの開発のための,最初のオープンソーストレーニングレシピを紹介する。
論文 参考訳(メタデータ) (2024-07-08T22:40:15Z) - Low-Resolution Self-Attention for Semantic Segmentation [93.30597515880079]
我々は,グローバルコンテキストを計算コストの大幅な削減で捉えるために,低解像度自己認識(LRSA)機構を導入する。
我々のアプローチは、入力画像の解像度に関わらず、固定された低解像度空間における自己注意を計算することである。
本稿では,エンコーダ・デコーダ構造を持つビジョントランスであるLRFormerを構築することで,LRSA手法の有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T06:10:09Z) - Generative Adversarial Super-Resolution at the Edge with Knowledge
Distillation [1.3764085113103222]
シングルイメージのスーパーソリューションは、信頼できるビジュアルストリームが必要な環境でのロボットタスクをサポートすることができる。
我々は,EdgeSRGANと呼ばれるリアルタイム超解法のための効率的な生成逆ネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:58:41Z) - The Architectural Implications of Distributed Reinforcement Learning on
CPU-GPU Systems [45.479582612113205]
CPU-GPUシステムにおけるRLトレーニングの性能と電力効率を改善する方法について述べる。
我々は,最先端分散rlトレーニングフレームワーク上でのハードウェア利用全体の定量化を行う。
また、新しいシステム設計メトリック、CPU/GPU比を導入し、CPUリソースとGPUリソースの最適なバランスを見つける方法を紹介します。
論文 参考訳(メタデータ) (2020-12-08T04:50:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。