論文の概要: RAPIQUE: Rapid and Accurate Video Quality Prediction of User Generated
Content
- arxiv url: http://arxiv.org/abs/2101.10955v1
- Date: Tue, 26 Jan 2021 17:23:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:36:17.869184
- Title: RAPIQUE: Rapid and Accurate Video Quality Prediction of User Generated
Content
- Title(参考訳): RAPIQUE: ユーザ生成コンテンツの迅速かつ正確なビデオ品質予測
- Authors: Zhengzhong Tu, Xiangxu Yu, Yilin Wang, Neil Birkbeck, Balu Adsumilli,
and Alan C. Bovik
- Abstract要約: RAPIQUE(Rapid and Accurate Video Quality Evaluator)をダブする、コンテンツのための効率的で効率的なビデオ品質モデルを紹介します。
RAPIQUEは、品質認識のシーン統計機能と意味認識の深い畳み込み機能の両方の利点を組み合わせて活用します。
最近の大規模なビデオ品質データベースに関する実験結果から、RAPIQUEはすべてのデータセットで最高のパフォーマンスを計算コストを大幅に削減できます。
- 参考スコア(独自算出の注目度): 44.03188436272383
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Blind or no-reference video quality assessment of user-generated content
(UGC) has become a trending, challenging, unsolved problem. Accurate and
efficient video quality predictors suitable for this content are thus in great
demand to achieve more intelligent analysis and processing of UGC videos.
Previous studies have shown that natural scene statistics and deep learning
features are both sufficient to capture spatial distortions, which contribute
to a significant aspect of UGC video quality issues. However, these models are
either incapable or inefficient for predicting the quality of complex and
diverse UGC videos in practical applications. Here we introduce an effective
and efficient video quality model for UGC content, which we dub the Rapid and
Accurate Video Quality Evaluator (RAPIQUE), which we show performs comparably
to state-of-the-art (SOTA) models but with orders-of-magnitude faster runtime.
RAPIQUE combines and leverages the advantages of both quality-aware scene
statistics features and semantics-aware deep convolutional features, allowing
us to design the first general and efficient spatial and temporal (space-time)
bandpass statistics model for video quality modeling. Our experimental results
on recent large-scale UGC video quality databases show that RAPIQUE delivers
top performances on all the datasets at a considerably lower computational
expense. We hope this work promotes and inspires further efforts towards
practical modeling of video quality problems for potential real-time and
low-latency applications. To promote public usage, an implementation of RAPIQUE
has been made freely available online: \url{https://github.com/vztu/RAPIQUE}.
- Abstract(参考訳): ユーザ生成コンテンツ(ugc)の盲目または非参照ビデオ品質評価は、トレンド的で挑戦的で未解決な問題となっている。
したがって、このコンテンツに適した正確で効率的なビデオ品質予測器は、UGCビデオのよりインテリジェントな分析と処理を達成するために大きな需要があります。
従来の研究では、自然のシーン統計と深層学習の特徴の両方が空間歪みを捉えるのに十分であることが示されており、UGCビデオの品質問題の重要な側面に寄与している。
しかし、これらのモデルは実用上、複雑で多様なugcビデオの品質を予測できないか非効率である。
ここでは,高速で正確な映像品質評価器(rapique: video quality evaluator)をダビングし,最先端(sota:state-of-the-art)モデルと相性が良いが,桁違いに高速な実行環境を実現するための,効率的なビデオ品質モデルを提案する。
RAPIQUEは、品質を考慮したシーン統計機能とセマンティックスを考慮した深い畳み込み機能の両方の利点を組み合わせて、ビデオ品質モデリングのための空間的および時間的(時空間)なバンドパス統計モデルの設計を可能にする。
最近の大規模UGCビデオ品質データベースに関する実験結果は、RAPIQUEがすべてのデータセットで最高のパフォーマンスを計算コストを大幅に削減できることを示しています。
本研究は,リアルタイム・低レイテンシアプリケーションのための映像品質問題の実用的なモデリングへのさらなる取り組みを促進することを願っている。
一般公開を促進するため、RAPIQUEの実装をオンラインで自由に利用できるようにした。
関連論文リスト
- Modular Blind Video Quality Assessment [35.345735020844856]
Blind Video Quality Assessment (BVQA) は、幅広いビデオベースのプラットフォームやサービスにおけるエンドユーザーの視聴体験を評価し改善する上で重要な役割を担っている。
本稿では,モジュール型BVQAモデルを提案する。
論文 参考訳(メタデータ) (2024-02-29T15:44:00Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Deep Quality Assessment of Compressed Videos: A Subjective and Objective
Study [23.3509109592315]
ビデオ符号化プロセスでは、圧縮ビデオの知覚品質を、フル参照品質評価指標により評価する。
この問題を解決するために,非参照圧縮映像品質評価アルゴリズムの設計が重要である。
本研究では,大規模圧縮映像品質データベースを構築するために,半自動ラベリング方式を採用する。
論文 参考訳(メタデータ) (2022-05-07T10:50:06Z) - A Deep Learning based No-reference Quality Assessment Model for UGC
Videos [44.00578772367465]
従来のビデオ品質評価(VQA)研究では、画像認識モデルまたは画像品質評価(IQA)モデルを使用して、品質回帰のためのビデオのフレームレベルの特徴を抽出している。
ビデオフレームの生画素から高品質な空間特徴表現を学習するために,エンドツーエンドの空間特徴抽出ネットワークを訓練する,非常に単純で効果的なVQAモデルを提案する。
より優れた品質認識機能により、単純な多層認識層(MLP)ネットワークのみを用いてチャンクレベルの品質スコアに回帰し、時間平均プーリング戦略を採用してビデオを得る。
論文 参考訳(メタデータ) (2022-04-29T12:45:21Z) - Study on the Assessment of the Quality of Experience of Streaming Video [117.44028458220427]
本稿では,ストリーミング映像のQoEの主観的推定に対する様々な客観的要因の影響について検討する。
本論文では標準的および手作り的特徴を示し,その相関とp値を示す。
SQoE-IIIデータベースは、これまでで最大の、そして最も現実的なデータベースだ。
論文 参考訳(メタデータ) (2020-12-08T18:46:09Z) - Patch-VQ: 'Patching Up' the Video Quality Problem [0.9786690381850356]
No-Reference (NR) Perceptual Video Quality Assessment (VQA) は、ソーシャルメディアおよびストリーミングメディアアプリケーションにおいて複雑で未解決で重要な問題である。
現在のNRモデルでは、実世界の"In-the-wild"ビデオデータ上での予測能力に制限がある。
私たちは、39,000の現実世界の歪曲したビデオと117,000の空間的局所化されたビデオパッチを含む、最も大きな(遠くまで)主観的なビデオ品質データセットを作成します。
論文 参考訳(メタデータ) (2020-11-27T03:46:44Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - Temporal Context Aggregation for Video Retrieval with Contrastive
Learning [81.12514007044456]
フレームレベルの特徴間の時間的長距離情報を組み込んだビデオ表現学習フレームワークTCAを提案する。
提案手法は,映像レベルの特徴を持つ最先端の手法に対して,FIVR-200Kでは17% mAPの大幅な性能上の優位性を示す。
論文 参考訳(メタデータ) (2020-08-04T05:24:20Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。