論文の概要: Semantically-Aware Game Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2505.11724v1
- Date: Fri, 16 May 2025 22:12:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.806111
- Title: Semantically-Aware Game Image Quality Assessment
- Title(参考訳): セマンティックなゲーム画像品質評価
- Authors: Kai Zhu, Vignesh Edithal, Le Zhang, Ilia Blank, Imran Junejo,
- Abstract要約: 既存の非参照画像とビデオ品質評価法(NR-IQA/VQA)はゲーム環境に一般化できない。
本研究では,ゲームに適した NR-IQA モデルを提案する。
このモデルは、ゲーム固有の歪みを検出し定量化するために、知識蒸留されたゲーム歪み特徴抽出器を使用する。
- 参考スコア(独自算出の注目度): 3.9367205985007656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assessing the visual quality of video game graphics presents unique challenges due to the absence of reference images and the distinct types of distortions, such as aliasing, texture blur, and geometry level of detail (LOD) issues, which differ from those in natural images or user-generated content. Existing no-reference image and video quality assessment (NR-IQA/VQA) methods fail to generalize to gaming environments as they are primarily designed for distortions like compression artifacts. This study introduces a semantically-aware NR-IQA model tailored to gaming. The model employs a knowledge-distilled Game distortion feature extractor (GDFE) to detect and quantify game-specific distortions, while integrating semantic gating via CLIP embeddings to dynamically weight feature importance based on scene content. Training on gameplay data recorded across graphical quality presets enables the model to produce quality scores that align with human perception. Our results demonstrate that the GDFE, trained through knowledge distillation from binary classifiers, generalizes effectively to intermediate distortion levels unseen during training. Semantic gating further improves contextual relevance and reduces prediction variance. In the absence of in-domain NR-IQA baselines, our model outperforms out-of-domain methods and exhibits robust, monotonic quality trends across unseen games in the same genre. This work establishes a foundation for automated graphical quality assessment in gaming, advancing NR-IQA methods in this domain.
- Abstract(参考訳): コンピュータゲームグラフィックスの視覚的品質を評価することは、参照画像の欠如や、エイリアス、テクスチャのぼかし、幾何学レベルの詳細(LOD)問題など、自然画像やユーザ生成コンテンツとは異なる、異なる種類の歪みによる固有の課題を示す。
既存の非参照画像およびビデオ品質評価法(NR-IQA/VQA)は、圧縮アーティファクトのような歪みのために主に設計されているため、ゲーム環境への一般化に失敗する。
本研究では,ゲームに適した NR-IQA モデルを提案する。
このモデルは、ゲーム固有の歪みを検出し定量化するために、知識蒸留型ゲーム歪み特徴抽出器(GDFE)を使用し、CLIP埋め込みによるセマンティックゲーティングを統合して、シーンコンテンツに基づいた特徴重要度を動的に重み付けする。
グラフィカルな品質設定で記録されたゲームプレイデータのトレーニングにより、モデルは人間の知覚に合わせた品質スコアを生成することができる。
以上の結果から, 2値分類器からの知識蒸留により学習したGDFEは,訓練中に見つからない中間歪みレベルに効果的に一般化することを示した。
セマンティックゲーティングは文脈的関連性をさらに改善し、予測分散を低減する。
ドメイン内NR-IQAベースラインが欠如しているため,本モデルはドメイン外手法より優れ,同じジャンルの未確認ゲームにおいて,堅牢で単調な品質傾向を示す。
この研究は、ゲームにおけるグラフィック品質の自動評価の基礎を確立し、この領域におけるNR-IQA法を前進させる。
関連論文リスト
- Perceptual Classifiers: Detecting Generative Images using Perceptual Features [28.667331253804214]
画像品質評価(IQA)モデルは、ストレージの削減、送信コストの最小化、数百万人の視聴者のクオリティ・オブ・エクスペリエンス(QoE)を改善するために、実用的な画像およびビデオ処理パイプラインに採用されている。
近年の世代モデルの発展により、インターネット上の「GenAI」コンテンツが大幅に流入している。
ここでは,バンドパス統計空間内の実画像の多様体を効果的に捉え,実画像とAI生成画像の区別を行う既存のIQAモデルの性能を利用する。
論文 参考訳(メタデータ) (2025-07-23T06:18:09Z) - DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Reference-Free Image Quality Metric for Degradation and Reconstruction Artifacts [2.5282283486446753]
品質要因予測器(QF)と呼ばれる基準のない品質評価ネットワークを開発する。
我々のQF予測器は7層からなる軽量で完全な畳み込みネットワークである。
JPEG圧縮画像パッチを入力としてランダムQFを受信し、対応するQFを正確に予測するように訓練する。
論文 参考訳(メタデータ) (2024-05-01T22:28:18Z) - Large Multi-modality Model Assisted AI-Generated Image Quality Assessment [53.182136445844904]
本稿では,AI生成画像品質評価モデル(MA-AGIQA)を提案する。
セマンティックインフォームドガイダンスを使用して意味情報を感知し、慎重に設計されたテキストプロンプトを通してセマンティックベクターを抽出する。
最先端のパフォーマンスを実現し、AI生成画像の品質を評価する上で優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-04-27T02:40:36Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Transformer-based No-Reference Image Quality Assessment via Supervised
Contrastive Learning [36.695247860715874]
本稿では,新しいコントラスト学習 (Contrastive Learning, SCL) と NR-IQA モデル SaTQA を提案する。
まず、SCLによる大規模合成データセット上にモデルをトレーニングし、様々な歪みタイプとレベルの画像の劣化特徴を抽出する。
画像から歪み情報を抽出するために,CNNインダクティブバイアスとTransformerの長期依存性モデリング機能を組み合わせることで,マルチストリームブロック(MSB)を組み込んだバックボーンネットワークを提案する。
7つの標準IQAデータセットの実験結果から、SaTQAは合成データセットと認証データセットの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-12T06:01:41Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - Subjective and Objective Quality Assessment for in-the-Wild Computer
Graphics Images [57.02760260360728]
我々は6000のCGI(CGIQA-6k)からなる大規模CGIQAデータベースを構築した。
本稿では, 歪みと美的品質表現を両立させて, 効果的な深層学習に基づくno-reference (NR) IQAモデルを提案する。
実験の結果,提案手法は構築したCGIQA-6kデータベース上で,最先端のNR IQA法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-14T16:32:24Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。