論文の概要: Enhancing VMAF through New Feature Integration and Model Combination
- arxiv url: http://arxiv.org/abs/2103.06338v1
- Date: Wed, 10 Mar 2021 20:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:40:14.962373
- Title: Enhancing VMAF through New Feature Integration and Model Combination
- Title(参考訳): 新機能統合とモデル結合によるVMAFの強化
- Authors: Fan Zhang and Angeliki Katsenou and Christos Bampis and Lukas Krasula
and Zhi Li and David Bull
- Abstract要約: VMAFは、もともとストリーミングアプリケーション用に設計された機械学習ベースのビデオ品質評価方法です。
新しいビデオ機能と代替品質指標の統合により、VMAFの拡張を提案します。
拡張VMAF法は8つのHDビデオデータベース上で評価され,VMAFモデルよりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 9.53158421434428
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: VMAF is a machine learning based video quality assessment method, originally
designed for streaming applications, which combines multiple quality metrics
and video features through SVM regression. It offers higher correlation with
subjective opinions compared to many conventional quality assessment methods.
In this paper we propose enhancements to VMAF through the integration of new
video features and alternative quality metrics (selected from a diverse pool)
alongside multiple model combination. The proposed combination approach enables
training on multiple databases with varying content and distortion
characteristics. Our enhanced VMAF method has been evaluated on eight HD video
databases, and consistently outperforms the original VMAF model (0.6.1) and
other benchmark quality metrics, exhibiting higher correlation with subjective
ground truth data.
- Abstract(参考訳): VMAFは、SVMレグレッションによる複数の品質メトリックとビデオ機能を組み合わせた、ストリーミングアプリケーション用に設計された機械学習ベースのビデオ品質評価方法です。
従来の品質評価法に比べて主観的意見との相関が高い。
本稿では,複数のモデルの組み合わせとともに,新しいビデオ機能と代替品質指標(多様なプールから選択された)の統合によるVMAFの強化を提案する。
提案手法により,異なる内容と歪み特性を持つ複数のデータベースのトレーニングが可能となる。
拡張VMAF法は8つのHDビデオデータベース上で評価され,従来のVMAFモデル (0.6.1) と他のベンチマーク品質指標を一貫して上回り,主観的基底真理データと高い相関を示した。
関連論文リスト
- Modular Blind Video Quality Assessment [35.345735020844856]
Blind Video Quality Assessment (BVQA) は、幅広いビデオベースのプラットフォームやサービスにおけるエンドユーザーの視聴体験を評価し改善する上で重要な役割を担っている。
本稿では,モジュール型BVQAモデルを提案する。
論文 参考訳(メタデータ) (2024-02-29T15:44:00Z) - VeCAF: VLM-empowered Collaborative Active Finetuning with Training
Objective Awareness [58.40419742596087]
PVM(Pretrained Vision Model)は、下流の視覚タスクを学習するための一般的なテクニックである。
VLMを用いた協調型アクティブファインタニング(VeCAF)を提案する。
VeCAFは、調整中のモデルのトレーニング目標を組み込むことで、パラメトリックデータ選択モデルを最適化する。
論文 参考訳(メタデータ) (2024-01-15T17:28:37Z) - Analysis of Video Quality Datasets via Design of Minimalistic Video
Quality Models [55.694387785978996]
BVQA(Blind Quality Assessment)は、実世界のビデオ対応メディアアプリケーションにおけるエンドユーザの視聴体験の監視と改善に不可欠である。
実験分野として、BVQAモデルの改良は、主に数個の人間の評価されたVQAデータセットに基づいて測定されている。
最小主義的BVQAモデルを用いて,VQAデータセットの第一種計算解析を行う。
論文 参考訳(メタデータ) (2023-07-26T06:38:33Z) - Video compression dataset and benchmark of learning-based video-quality
metrics [55.41644538483948]
本稿では,ビデオ圧縮の評価を行うビデオ品質指標の新しいベンチマークを提案する。
これは、異なる標準でエンコードされた約2,500のストリームからなる、新しいデータセットに基づいている。
クラウドソーシングによるペアワイズ比較により,主観的スコアを収集した。
論文 参考訳(メタデータ) (2022-11-22T09:22:28Z) - An Empirical Study of End-to-End Video-Language Transformers with Masked
Visual Modeling [152.75131627307567]
Masked Visual Modeling (MVM) は視覚前トレーニングに有効であることが最近証明されている。
VidL学習におけるMVMの可能性について,系統的に検討した。
我々は、MVMで事前トレーニングされたVIOLETv2が、13のVidLベンチマークで顕著な改善を実現していることを示す。
論文 参考訳(メタデータ) (2022-09-04T06:30:32Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - FUNQUE: Fusion of Unified Quality Evaluators [42.41484412777326]
核融合による品質評価は、高性能な品質モデルを開発するための強力な方法として登場した。
統一品質評価器を融合した品質モデルであるFUNQUEを提案する。
論文 参考訳(メタデータ) (2022-02-23T00:21:43Z) - Hacking VMAF and VMAF NEG: metrics vulnerability to different
preprocessing [0.0]
ビデオ前処理による品質指標VMAFとそのチューニング耐性バージョンVMAF NEGが人工的に向上可能であることを示す。
本稿では,VMAFを最大218.8%増加させる処理アルゴリズムのパラメータをチューニングするためのパイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-09T15:53:47Z) - Study on the Assessment of the Quality of Experience of Streaming Video [117.44028458220427]
本稿では,ストリーミング映像のQoEの主観的推定に対する様々な客観的要因の影響について検討する。
本論文では標準的および手作り的特徴を示し,その相関とp値を示す。
SQoE-IIIデータベースは、これまでで最大の、そして最も現実的なデータベースだ。
論文 参考訳(メタデータ) (2020-12-08T18:46:09Z) - Unified Quality Assessment of In-the-Wild Videos with Mixed Datasets
Training [20.288424566444224]
我々は、コンピュータビジョンアプリケーションにおいて、Wildビデオの品質を自動評価することに注力する。
品質評価モデルの性能向上のために,人間の知覚から直観を借りる。
複数のデータセットで単一のVQAモデルをトレーニングするための混合データセットトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-11-09T09:22:57Z) - Frame Aggregation and Multi-Modal Fusion Framework for Video-Based
Person Recognition [13.875674649636874]
ビデオに基づく人物認識のためのフレームアグリゲーションとマルチモーダルフュージョン(FAMF)フレームワークを提案する。
FAMFは顔の特徴を集約し、ビデオ内の人物を特定するためのマルチモーダル情報を組み込む。
本稿では,NetVLADにアテンション機構を導入することで,低品質フレームの影響を効果的に低減できることを示す。
論文 参考訳(メタデータ) (2020-10-19T08:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。