論文の概要: Regression or Classification? New Methods to Evaluate No-Reference
Picture and Video Quality Models
- arxiv url: http://arxiv.org/abs/2102.00155v1
- Date: Sat, 30 Jan 2021 05:40:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 15:39:28.728143
- Title: Regression or Classification? New Methods to Evaluate No-Reference
Picture and Video Quality Models
- Title(参考訳): 回帰か分類か?
No-Reference Picture と Video Quality Model の新しい評価法
- Authors: Zhengzhong Tu, Chia-Ju Chen, Li-Heng Chen, Yilin Wang, Neil Birkbeck,
Balu Adsumilli, and Alan C. Bovik
- Abstract要約: 粗いレベルでの非参照品質モデルの評価と比較のための2つの新しい手法を提案する。
我々は、最近の画像とビデオの品質データセットに基づいて、人気のあるノン参照品質モデルのベンチマーク実験を行う。
- 参考スコア(独自算出の注目度): 45.974399400141685
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Video and image quality assessment has long been projected as a regression
problem, which requires predicting a continuous quality score given an input
stimulus. However, recent efforts have shown that accurate quality score
regression on real-world user-generated content (UGC) is a very challenging
task. To make the problem more tractable, we propose two new methods - binary,
and ordinal classification - as alternatives to evaluate and compare
no-reference quality models at coarser levels. Moreover, the proposed new tasks
convey more practical meaning on perceptually optimized UGC transcoding, or for
preprocessing on media processing platforms. We conduct a comprehensive
benchmark experiment of popular no-reference quality models on recent
in-the-wild picture and video quality datasets, providing reliable baselines
for both evaluation methods to support further studies. We hope this work
promotes coarse-grained perceptual modeling and its applications to efficient
UGC processing.
- Abstract(参考訳): 映像と画質評価は、入力刺激による連続的な品質スコアの予測を必要とする回帰問題として、長い間予測されてきた。
しかし、最近の取り組みでは、現実世界のユーザー生成コンテンツ(UGC)の正確な品質スコア回帰は非常に難しい課題であることを示しています。
この問題をより扱いやすくするため,二項分類法と順序分類法という2つの新しい手法を提案し,非参照品質モデルをより粗いレベルで評価・比較する。
さらに,提案するタスクは,知覚的に最適化されたuccトランスコーディングやメディア処理プラットフォームでのプリプロセッシングにおいて,より実用的な意味を持つ。
本研究では,最近の画像および映像品質データセット上で,人気のある非参照品質モデルの包括的なベンチマーク実験を行い,さらなる研究を支援するために,両評価手法の信頼性の高いベースラインを提供する。
この研究は、粗粒度パーセプティカルモデリングとその効率的なUGC処理への応用を促進することを願っている。
関連論文リスト
- Advancing Video Quality Assessment for AIGC [17.23281750562252]
本稿では,平均絶対誤差とクロスエントロピー損失を組み合わせ,フレーム間品質の不整合を緩和する新たな損失関数を提案する。
また,モデルの一般化能力を高めるために,敵対的トレーニングを活用しながら,重要なコンテンツを維持するために革新的なS2CNet技術を導入する。
論文 参考訳(メタデータ) (2024-09-23T10:36:22Z) - MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion [8.338999282303755]
本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
論文 参考訳(メタデータ) (2022-05-20T11:34:35Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Image Quality Assessment in the Modern Age [53.19271326110551]
本チュートリアルは、画像品質評価(IQA)の基礎的理論、方法論、現状の進歩を聴衆に提供する。
まず,視覚刺激を適切に選択する方法に着目し,主観的品質評価手法を再考する。
手書きのエンジニアリングと(深い)学習ベースの手法の両方をカバーします。
論文 参考訳(メタデータ) (2021-10-19T02:38:46Z) - Group-aware Contrastive Regression for Action Quality Assessment [85.43203180953076]
ビデオ間の関係は、より正確な行動品質評価のための重要な手がかりとなることを示す。
提案手法は従来の手法よりも大きなマージンを達成し,3つのベンチマークで新たな最先端の手法を確立する。
論文 参考訳(メタデータ) (2021-08-17T17:59:39Z) - Study on the Assessment of the Quality of Experience of Streaming Video [117.44028458220427]
本稿では,ストリーミング映像のQoEの主観的推定に対する様々な客観的要因の影響について検討する。
本論文では標準的および手作り的特徴を示し,その相関とp値を示す。
SQoE-IIIデータベースは、これまでで最大の、そして最も現実的なデータベースだ。
論文 参考訳(メタデータ) (2020-12-08T18:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。