論文の概要: Disentangling Aesthetic and Technical Effects for Video Quality
Assessment of User Generated Content
- arxiv url: http://arxiv.org/abs/2211.04894v1
- Date: Wed, 9 Nov 2022 13:55:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:39:03.746656
- Title: Disentangling Aesthetic and Technical Effects for Video Quality
Assessment of User Generated Content
- Title(参考訳): ユーザ生成コンテンツの映像品質評価における美的・技術的効果の相違
- Authors: Haoning Wu, Liang Liao, Chaofeng Chen, Jingwen Hou, Annan Wang, Wenxiu
Sun, Qiong Yan, Weisi Lin
- Abstract要約: YouTube-VQA問題における人間の品質知覚のメカニズムはまだ解明されていない。
本稿では,2つの個別評価器を,各問題に特化して設計したビューで訓練する手法を提案する。
我々の盲目主観的研究は、DOVERの別個の評価器が、各不整合品質問題に対する人間の認識と効果的に一致できることを証明している。
- 参考スコア(独自算出の注目度): 54.31355080688127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User-generated-content (UGC) videos have dominated the Internet during recent
years. While many methods attempt to objectively assess the quality of these
UGC videos, the mechanisms of human quality perception in the UGC-VQA problem
is still yet to be explored. To better explain the quality perception
mechanisms and learn more robust representations, we aim to disentangle the
effects of aesthetic quality issues and technical quality issues risen by the
complicated video generation processes in the UGC-VQA problem. To overcome the
absence of respective supervisions during disentanglement, we propose the
Limited View Biased Supervisions (LVBS) scheme where two separate evaluators
are trained with decomposed views specifically designed for each issue.
Composed of an Aesthetic Quality Evaluator (AQE) and a Technical Quality
Evaluator (TQE) under the LVBS scheme, the proposed Disentangled Objective
Video Quality Evaluator (DOVER) reach excellent performance (0.91 SRCC for
KoNViD-1k, 0.89 SRCC for LSVQ, 0.88 SRCC for YouTube-UGC) in the UGC-VQA
problem. More importantly, our blind subjective studies prove that the separate
evaluators in DOVER can effectively match human perception on respective
disentangled quality issues. Codes and demos are released in
https://github.com/teowu/dover.
- Abstract(参考訳): 近年,ユーザ生成コンテンツ(UGC)ビデオがインターネットを支配している。
UGCビデオの品質を客観的に評価するために多くの手法が試みられているが、UGC-VQA問題における人間の品質知覚のメカニズムはまだ解明されていない。
UGC-VQA問題における複雑な映像生成プロセスによって生じる審美的品質問題と技術的品質問題の影響を解消することを目的として,品質認識機構をより深く説明し,より堅牢な表現を学習する。
そこで本研究では,各課題に特化して設計された分割ビューを用いて2つの個別評価器を訓練する限定ビューバイアスドスーパービジョン(LVBS)方式を提案する。
LVBS方式下での審美品質評価器 (AQE) と技術品質評価器 (TQE) から構成され,UGC-VQA問題において提案した遠方形映像品質評価器 (DOVER) は, KoNViD-1kでは0.91 SRCC, LSVQでは0.89 SRCC, YouTube-UGCでは0.88 SRCC) に優れていた。
さらに重要なことは、我々の盲目主観的研究は、DOVERの別個の評価器が、異なる品質問題に対する人間の知覚と効果的に一致できることを証明している。
コードとデモはhttps://github.com/teowu/dover.comで公開されている。
関連論文リスト
- CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - KVQ: Kwai Video Quality Assessment for Short-form Videos [24.5291786508361]
我々は,600本のユーザアップロードショートビデオと3600本のプロセッシングビデオからなる,最初の大規模KVQ(Kleidoscope short Video database for Quality Assessment)を構築した。
そこで我々は,KSVQEというビデオ品質評価装置を提案する。これにより,品質決定セマンティクスを大規模視覚言語モデルの内容理解とともに識別することができる。
論文 参考訳(メタデータ) (2024-02-11T14:37:54Z) - StarVQA+: Co-training Space-Time Attention for Video Quality Assessment [56.548364244708715]
自己注意に基づくトランスフォーマーは多くのコンピュータビジョンタスクで大きな成功を収めた。
しかし,ビデオ品質評価(VQA)への適用は今のところ不十分である。
本稿では,StarVQA+と呼ばれる,VQA問題に対する協調学習型空間時間注意ネットワークを提案する。
論文 参考訳(メタデータ) (2023-06-21T14:27:31Z) - Towards Explainable In-the-Wild Video Quality Assessment: A Database and
a Language-Prompted Approach [52.07084862209754]
われわれは、13次元の質関連因子に関する4,543本のビデオについて200万以上の意見を集めている。
具体的には、各次元に対して正、負、中立の選択をラベル付けするよう被験者に求める。
これらの説明レベルの意見は、特定の品質要因と抽象的な主観的品質評価の関係を測ることができる。
論文 参考訳(メタデータ) (2023-05-22T05:20:23Z) - Towards Robust Text-Prompted Semantic Criterion for In-the-Wild Video
Quality Assessment [54.31355080688127]
コントラスト言語画像事前学習(CLIP)を用いたテキストプロンプト付きセマンティック親和性品質指標(SAQI)とそのローカライズ版(SAQI-Local)を導入する。
BVQI-Localは前例のないパフォーマンスを示し、すべてのデータセットで既存のゼロショットインデックスを少なくとも24%上回る。
我々は、異なる指標の異なる品質問題を調べるために包括的な分析を行い、設計の有効性と合理性を示す。
論文 参考訳(メタデータ) (2023-04-28T08:06:05Z) - MD-VQA: Multi-Dimensional Quality Assessment for UGC Live Videos [39.06800945430703]
我々は、第一種主観的Live VQAデータベースを構築し、効果的な評価ツールを開発する。
textbfMD-VQAは、Live VQAデータベースと既存の圧縮VQAデータベースの両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-03-27T06:17:10Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。