論文の概要: Enhancing VMAF through New Feature Integration and Model Combination
- arxiv url: http://arxiv.org/abs/2103.06338v1
- Date: Wed, 10 Mar 2021 20:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:40:14.962373
- Title: Enhancing VMAF through New Feature Integration and Model Combination
- Title(参考訳): 新機能統合とモデル結合によるVMAFの強化
- Authors: Fan Zhang and Angeliki Katsenou and Christos Bampis and Lukas Krasula
and Zhi Li and David Bull
- Abstract要約: VMAFは、もともとストリーミングアプリケーション用に設計された機械学習ベースのビデオ品質評価方法です。
新しいビデオ機能と代替品質指標の統合により、VMAFの拡張を提案します。
拡張VMAF法は8つのHDビデオデータベース上で評価され,VMAFモデルよりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 9.53158421434428
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: VMAF is a machine learning based video quality assessment method, originally
designed for streaming applications, which combines multiple quality metrics
and video features through SVM regression. It offers higher correlation with
subjective opinions compared to many conventional quality assessment methods.
In this paper we propose enhancements to VMAF through the integration of new
video features and alternative quality metrics (selected from a diverse pool)
alongside multiple model combination. The proposed combination approach enables
training on multiple databases with varying content and distortion
characteristics. Our enhanced VMAF method has been evaluated on eight HD video
databases, and consistently outperforms the original VMAF model (0.6.1) and
other benchmark quality metrics, exhibiting higher correlation with subjective
ground truth data.
- Abstract(参考訳): VMAFは、SVMレグレッションによる複数の品質メトリックとビデオ機能を組み合わせた、ストリーミングアプリケーション用に設計された機械学習ベースのビデオ品質評価方法です。
従来の品質評価法に比べて主観的意見との相関が高い。
本稿では,複数のモデルの組み合わせとともに,新しいビデオ機能と代替品質指標(多様なプールから選択された)の統合によるVMAFの強化を提案する。
提案手法により,異なる内容と歪み特性を持つ複数のデータベースのトレーニングが可能となる。
拡張VMAF法は8つのHDビデオデータベース上で評価され,従来のVMAFモデル (0.6.1) と他のベンチマーク品質指標を一貫して上回り,主観的基底真理データと高い相関を示した。
関連論文リスト
- CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - PTM-VQA: Efficient Video Quality Assessment Leveraging Diverse PreTrained Models from the Wild [27.195339506769457]
映像品質評価(VQA)は、映像の知覚品質に影響を与える多くの要因により難しい問題である。
ビデオに対する平均評価スコア(MOS)の注釈付けは高価で時間を要するため、VQAデータセットのスケールが制限される。
PTM-VQAと呼ばれるVQA手法を提案し、PreTrained Modelsを利用して、様々な事前タスクで事前訓練されたモデルから知識を伝達する。
論文 参考訳(メタデータ) (2024-05-28T02:37:29Z) - RMT-BVQA: Recurrent Memory Transformer-based Blind Video Quality Assessment for Enhanced Video Content [7.283653823423298]
本稿では,映像コンテンツの改良を目的とした新しいブラインド・ディープ・ビデオ品質評価手法を提案する。
新しいリカレントメモリトランス (Recurrent Memory Transformer, RMT) ベースのネットワークアーキテクチャを使用して、ビデオ品質の表現を得る。
抽出された品質表現は線形回帰によって合成され、ビデオレベルの品質指標を生成する。
論文 参考訳(メタデータ) (2024-05-14T14:01:15Z) - Video compression dataset and benchmark of learning-based video-quality
metrics [55.41644538483948]
本稿では,ビデオ圧縮の評価を行うビデオ品質指標の新しいベンチマークを提案する。
これは、異なる標準でエンコードされた約2,500のストリームからなる、新しいデータセットに基づいている。
クラウドソーシングによるペアワイズ比較により,主観的スコアを収集した。
論文 参考訳(メタデータ) (2022-11-22T09:22:28Z) - An Empirical Study of End-to-End Video-Language Transformers with Masked
Visual Modeling [152.75131627307567]
Masked Visual Modeling (MVM) は視覚前トレーニングに有効であることが最近証明されている。
VidL学習におけるMVMの可能性について,系統的に検討した。
我々は、MVMで事前トレーニングされたVIOLETv2が、13のVidLベンチマークで顕著な改善を実現していることを示す。
論文 参考訳(メタデータ) (2022-09-04T06:30:32Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - FUNQUE: Fusion of Unified Quality Evaluators [42.41484412777326]
核融合による品質評価は、高性能な品質モデルを開発するための強力な方法として登場した。
統一品質評価器を融合した品質モデルであるFUNQUEを提案する。
論文 参考訳(メタデータ) (2022-02-23T00:21:43Z) - Study on the Assessment of the Quality of Experience of Streaming Video [117.44028458220427]
本稿では,ストリーミング映像のQoEの主観的推定に対する様々な客観的要因の影響について検討する。
本論文では標準的および手作り的特徴を示し,その相関とp値を示す。
SQoE-IIIデータベースは、これまでで最大の、そして最も現実的なデータベースだ。
論文 参考訳(メタデータ) (2020-12-08T18:46:09Z) - Unified Quality Assessment of In-the-Wild Videos with Mixed Datasets
Training [20.288424566444224]
我々は、コンピュータビジョンアプリケーションにおいて、Wildビデオの品質を自動評価することに注力する。
品質評価モデルの性能向上のために,人間の知覚から直観を借りる。
複数のデータセットで単一のVQAモデルをトレーニングするための混合データセットトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-11-09T09:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。