論文の概要: RMT-BVQA: Recurrent Memory Transformer-based Blind Video Quality Assessment for Enhanced Video Content
- arxiv url: http://arxiv.org/abs/2405.08621v4
- Date: Fri, 6 Sep 2024 01:05:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 11:10:06.415121
- Title: RMT-BVQA: Recurrent Memory Transformer-based Blind Video Quality Assessment for Enhanced Video Content
- Title(参考訳): RMT-BVQA:リカレントメモリ変換器による高画質化のためのブラインド映像品質評価
- Authors: Tianhao Peng, Chen Feng, Duolikun Danier, Fan Zhang, Benoit Vallade, Alex Mackin, David Bull,
- Abstract要約: 本稿では,映像コンテンツの改良を目的とした新しいブラインド・ディープ・ビデオ品質評価手法を提案する。
新しいリカレントメモリトランス (Recurrent Memory Transformer, RMT) ベースのネットワークアーキテクチャを使用して、ビデオ品質の表現を得る。
抽出された品質表現は線形回帰によって合成され、ビデオレベルの品質指標を生成する。
- 参考スコア(独自算出の注目度): 7.283653823423298
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With recent advances in deep learning, numerous algorithms have been developed to enhance video quality, reduce visual artifacts, and improve perceptual quality. However, little research has been reported on the quality assessment of enhanced content - the evaluation of enhancement methods is often based on quality metrics that were designed for compression applications. In this paper, we propose a novel blind deep video quality assessment (VQA) method specifically for enhanced video content. It employs a new Recurrent Memory Transformer (RMT) based network architecture to obtain video quality representations, which is optimized through a novel content-quality-aware contrastive learning strategy based on a new database containing 13K training patches with enhanced content. The extracted quality representations are then combined through linear regression to generate video-level quality indices. The proposed method, RMT-BVQA, has been evaluated on the VDPVE (VQA Dataset for Perceptual Video Enhancement) database through a five-fold cross validation. The results show its superior correlation performance when compared to ten existing no-reference quality metrics.
- Abstract(参考訳): 近年のディープラーニングの進歩により、ビデオ品質の向上、視覚的アーティファクトの削減、知覚的品質の向上など、数多くのアルゴリズムが開発されている。
しかし, コンテントの品質評価についてはほとんど研究されていない - 圧縮アプリケーション用に設計された品質指標に基づいて, エンハンスメント手法の評価を行う場合が多い。
本稿では,映像コンテンツの改良を目的とした新しいブラインドディープ・ビデオ品質評価手法を提案する。
新たなRecurrent Memory Transformer (RMT) ベースのネットワークアーキテクチャを用いて,13Kトレーニングパッチと拡張コンテンツを備えた新しいデータベースをベースとした,コンテンツ品質に配慮したコントラスト学習戦略を通じて最適化されたビデオ品質表現を実現する。
抽出された品質表現は線形回帰によって合成され、ビデオレベルの品質指標を生成する。
提案手法であるRTT-BVQAは,VDPVE(VQA Dataset for Perceptual Video Enhancement)データベース上で5倍のクロスバリデーションによって評価されている。
その結果、既存の10の非参照品質指標と比較すると、相関性能が優れていることがわかった。
関連論文リスト
- Benchmarking AIGC Video Quality Assessment: A Dataset and Unified Model [54.69882562863726]
主観的および客観的品質評価の観点からAIGC-VQA問題を体系的に検討する。
我々は,空間的品質,時間的品質,テキスト・ツー・ビデオアライメントの3次元から,AIGCビデオの知覚品質を評価する。
本稿では,AIGCビデオの品質を包括的かつ正確に評価するUnify Generated Video Quality Assessment (UGVQ)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-31T07:54:26Z) - ReLaX-VQA: Residual Fragment and Layer Stack Extraction for Enhancing Video Quality Assessment [35.00766551093652]
本稿では, NR-VQA(No-Reference Video Quality Assessment)モデルであるReLaX-VQAを提案する。
ReLaX-VQAは、残留フレームと光学フローの断片と、サンプルフレームの空間的特徴の異なる表現を用いて、動きと空間的知覚を高める。
我々は、NR-VQAのさらなる研究と応用を促進するために、コードをオープンソース化し、訓練されたモデルを公開します。
論文 参考訳(メタデータ) (2024-07-16T08:33:55Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - Enhancing Blind Video Quality Assessment with Rich Quality-aware Features [79.18772373737724]
ソーシャルメディアビデオの視覚的品質評価(BVQA)モデルを改善するための,シンプルだが効果的な手法を提案する。
本稿では,BIQAモデルとBVQAモデルを用いて,事前学習したブラインド画像品質評価(BIQA)から,リッチな品質認識機能について検討する。
実験により,提案モデルが3つのソーシャルメディアVQAデータセット上で最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-14T16:32:11Z) - KVQ: Kwai Video Quality Assessment for Short-form Videos [24.5291786508361]
我々は,600本のユーザアップロードショートビデオと3600本のプロセッシングビデオからなる,最初の大規模KVQ(Kleidoscope short Video database for Quality Assessment)を構築した。
そこで我々は,KSVQEというビデオ品質評価装置を提案する。これにより,品質決定セマンティクスを大規模視覚言語モデルの内容理解とともに識別することができる。
論文 参考訳(メタデータ) (2024-02-11T14:37:54Z) - Perceptual Video Quality Assessment: A Survey [63.61214597655413]
映像品質評価は,映像処理分野において重要な役割を担っている。
過去20年間に様々な主観的・客観的な映像品質評価研究が実施されてきた。
この調査は、これらのビデオ品質アセスメント研究の最新かつ包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-02-05T16:13:52Z) - High Visual-Fidelity Learned Video Compression [6.609832462227998]
我々は,HVFVC(High Visual-Fidelity Learned Video Compression framework)を提案する。
具体的には,新たに出現した地域での貧弱な復興問題に対処するために,信頼度に基づく新しい特徴再構成手法を設計する。
広汎な実験により提案したHVFVCは、50%しか必要とせず、最新のVVC標準よりも優れた知覚品質が得られることが示された。
論文 参考訳(メタデータ) (2023-10-07T03:27:45Z) - Leveraging Video Coding Knowledge for Deep Video Enhancement [6.746400031322727]
本研究では,ビデオ圧縮の低遅延構成を利用して,既存の最先端手法である BasicVSR++ を改良する新しいフレームワークを提案する。
我々は,圧縮ビデオの最終品質を高めるために,文脈適応型ビデオ融合手法を取り入れた。
提案手法は,NTIRE22チャレンジにおいてビデオ復元と拡張のためのベンチマークとして評価され,従来の手法と比較して定量的な計測値と視覚的品質の両方の改善が達成されている。
論文 参考訳(メタデータ) (2023-02-27T09:00:29Z) - Video compression dataset and benchmark of learning-based video-quality
metrics [55.41644538483948]
本稿では,ビデオ圧縮の評価を行うビデオ品質指標の新しいベンチマークを提案する。
これは、異なる標準でエンコードされた約2,500のストリームからなる、新しいデータセットに基づいている。
クラウドソーシングによるペアワイズ比較により,主観的スコアを収集した。
論文 参考訳(メタデータ) (2022-11-22T09:22:28Z) - Deep Quality Assessment of Compressed Videos: A Subjective and Objective
Study [23.3509109592315]
ビデオ符号化プロセスでは、圧縮ビデオの知覚品質を、フル参照品質評価指標により評価する。
この問題を解決するために,非参照圧縮映像品質評価アルゴリズムの設計が重要である。
本研究では,大規模圧縮映像品質データベースを構築するために,半自動ラベリング方式を採用する。
論文 参考訳(メタデータ) (2022-05-07T10:50:06Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。