論文の概要: TuningIQA: Fine-Grained Blind Image Quality Assessment for Livestreaming Camera Tuning
- arxiv url: http://arxiv.org/abs/2508.17965v1
- Date: Mon, 25 Aug 2025 12:26:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.773569
- Title: TuningIQA: Fine-Grained Blind Image Quality Assessment for Livestreaming Camera Tuning
- Title(参考訳): TuningIQA:ライブストリーミングカメラの微視的ブラインド画像品質評価
- Authors: Xiangfei Sheng, Zhichao Duan, Xiaofeng Pan, Yipo Huang, Zhichao Yang, Pengfei Chen, Leida Li,
- Abstract要約: 既存のブラインド画像品質評価(BIQA)モデルは通常、粗い粒度の品質スコアのみを予測する。
まずFGLive-10Kという,カメラパラメータの異なる10,185個の高解像度画像を含む包括的細粒度BIQAデータベースを構築した。
そこで我々は,人間認識機能抽出とグラフベースのカメラパラメータ融合を統合した,ライブストリーミングカメラチューニングのための細粒度BIQAメトリックであるTuningIQAを開発した。
- 参考スコア(独自算出の注目度): 29.779476461887693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Livestreaming has become increasingly prevalent in modern visual communication, where automatic camera quality tuning is essential for delivering superior user Quality of Experience (QoE). Such tuning requires accurate blind image quality assessment (BIQA) to guide parameter optimization decisions. Unfortunately, the existing BIQA models typically only predict an overall coarse-grained quality score, which cannot provide fine-grained perceptual guidance for precise camera parameter tuning. To bridge this gap, we first establish FGLive-10K, a comprehensive fine-grained BIQA database containing 10,185 high-resolution images captured under varying camera parameter configurations across diverse livestreaming scenarios. The dataset features 50,925 multi-attribute quality annotations and 19,234 fine-grained pairwise preference annotations. Based on FGLive-10K, we further develop TuningIQA, a fine-grained BIQA metric for livestreaming camera tuning, which integrates human-aware feature extraction and graph-based camera parameter fusion. Extensive experiments and comparisons demonstrate that TuningIQA significantly outperforms state-of-the-art BIQA methods in both score regression and fine-grained quality ranking, achieving superior performance when deployed for livestreaming camera tuning.
- Abstract(参考訳): ライブストリーミングは、より優れたユーザエクスペリエンス(QoE)を提供する上で、自動カメラ品質チューニングが不可欠である現代の視覚コミュニケーションにおいて、ますます普及している。
このようなチューニングはパラメータ最適化決定を導くために正確なブラインド画像品質評価(BIQA)を必要とする。
残念ながら、既存のBIQAモデルは概して粗い品質スコアしか予測できないため、正確なカメラパラメータチューニングのための微粒なパーセプティカルガイダンスは提供できない。
このギャップを埋めるために、我々はまずFGLive-10Kという、さまざまなライブストリーミングシナリオにまたがる様々なカメラパラメータ構成下で撮影された10,185個の高解像度画像を含む包括的細粒度BIQAデータベースを構築した。
データセットには50,925のマルチ属性品質アノテーションと19,234の微粒なペアワイズアノテーションが含まれている。
FGLive-10Kをベースとして,人間の認識機能抽出とグラフベースのカメラパラメータ融合を統合した,ライブストリーミングカメラチューニングのための細粒度BIQAメトリックであるTuningIQAを開発した。
広汎な実験と比較により、TuningIQAはスコア評価と微粒な品質ランキングの両方において最先端のBIQA法を著しく上回り、ライブストリーミングカメラのチューニングに際し優れた性能を発揮することが示された。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [73.6767681305851]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Enhancing Blind Video Quality Assessment with Rich Quality-aware Features [79.18772373737724]
ソーシャルメディアビデオの視覚的品質評価(BVQA)モデルを改善するための,シンプルだが効果的な手法を提案する。
本稿では,BIQAモデルとBVQAモデルを用いて,事前学習したブラインド画像品質評価(BIQA)から,リッチな品質認識機能について検討する。
実験により,提案モデルが3つのソーシャルメディアVQAデータセット上で最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-14T16:32:11Z) - Generalized Portrait Quality Assessment [26.8378202089832]
本稿では,ポートレート品質評価(PQA)に対する学習に基づくアプローチを提案する。
提案手法はPIQ23ベンチマークの広範な実験により検証された。
FHIQAのソースコードは、PIQ23 GitHubリポジトリで公開されている。
論文 参考訳(メタデータ) (2024-02-14T13:47:18Z) - Feature Denoising Diffusion Model for Blind Image Quality Assessment [58.5808754919597]
Blind Image Quality Assessment (BIQA) は、基準ベンチマークを使わずに、人間の知覚に合わせて画質を評価することを目的としている。
ディープラーニング BIQA の手法は、一般的に、伝達学習のための高レベルのタスクの特徴の使用に依存する。
本稿では,BIQAにおける特徴認知のための拡散モデルについて検討する。
論文 参考訳(メタデータ) (2024-01-22T13:38:24Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - PeQuENet: Perceptual Quality Enhancement of Compressed Video with
Adaptation- and Attention-based Network [27.375830262287163]
本稿では,圧縮ビデオの知覚品質を高めるために,GAN(Generative Adversarial Network)フレームワークを提案する。
我々のフレームワークは、単一のモデルにおける異なる量子化パラメータ(QP)への注意と適応を含む。
実験により,提案したPeQuENetの圧縮圧縮画質向上アルゴリズムと比較して優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-16T02:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。