論文の概要: Video compression dataset and benchmark of learning-based video-quality
metrics
- arxiv url: http://arxiv.org/abs/2211.12109v1
- Date: Tue, 22 Nov 2022 09:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 19:03:43.826822
- Title: Video compression dataset and benchmark of learning-based video-quality
metrics
- Title(参考訳): ビデオ圧縮データセットと学習に基づくビデオ品質指標のベンチマーク
- Authors: Anastasia Antsiferova, Sergey Lavrushkin, Maksim Smirnov, Alexander
Gushchin, Dmitriy Vatolin, Dmitriy Kulikov
- Abstract要約: 本稿では,ビデオ圧縮の評価を行うビデオ品質指標の新しいベンチマークを提案する。
これは、異なる標準でエンコードされた約2,500のストリームからなる、新しいデータセットに基づいている。
クラウドソーシングによるペアワイズ比較により,主観的スコアを収集した。
- 参考スコア(独自算出の注目度): 55.41644538483948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video-quality measurement is a critical task in video processing. Nowadays,
many implementations of new encoding standards - such as AV1, VVC, and LCEVC -
use deep-learning-based decoding algorithms with perceptual metrics that serve
as optimization objectives. But investigations of the performance of modern
video- and image-quality metrics commonly employ videos compressed using older
standards, such as AVC. In this paper, we present a new benchmark for
video-quality metrics that evaluates video compression. It is based on a new
dataset consisting of about 2,500 streams encoded using different standards,
including AVC, HEVC, AV1, VP9, and VVC. Subjective scores were collected using
crowdsourced pairwise comparisons. The list of evaluated metrics includes
recent ones based on machine learning and neural networks. The results
demonstrate that new no-reference metrics exhibit a high correlation with
subjective quality and approach the capability of top full-reference metrics.
- Abstract(参考訳): 映像品質測定は映像処理において重要な課題である。
今日では、AV1、VVC、LCEVCといった新しいエンコーディング標準の実装が、最適化の目的として機能する知覚的メトリクスを備えたディープラーニングベースのデコーディングアルゴリズムを使用している。
しかし、現代のビデオ品質と画質の指標の性能に関する調査では、AVCのような古い規格で圧縮されたビデオが一般的である。
本稿では,ビデオ圧縮の評価を行うビデオ品質指標の新しいベンチマークを提案する。
AVC、HEVC、AV1、VP9、VVCなど、さまざまな標準でエンコードされた約2500のストリームからなる、新たなデータセットに基づいている。
主観的なスコアはクラウドソーシングによる対数比較を用いて収集した。
評価指標のリストには、機械学習とニューラルネットワークに基づく最近の指標が含まれている。
その結果、新しい非参照指標は主観的品質と高い相関を示し、上位のフル参照指標の能力にアプローチすることを示した。
関連論文リスト
- EgoCVR: An Egocentric Benchmark for Fine-Grained Composed Video Retrieval [52.375143786641196]
EgoCVRは、きめ細かいComposted Video Retrievalの評価ベンチマークである。
EgoCVRは2,295のクエリで構成され、高品質な時間的ビデオ理解に特化している。
論文 参考訳(メタデータ) (2024-07-23T17:19:23Z) - Needle In A Video Haystack: A Scalable Synthetic Evaluator for Video MLLMs [20.168429351519055]
ビデオ理解はマルチモーダル大言語モデル(LMLM)にとって重要な次のステップである
合成ビデオ生成によるベンチマーク構築フレームワークであるVideoNIAH(Video Needle In A Haystack)を提案する。
我々は、プロプライエタリモデルとオープンソースモデルの両方を包括的に評価し、ビデオ理解能力の重大な違いを明らかにする。
論文 参考訳(メタデータ) (2024-06-13T17:50:05Z) - RMT-BVQA: Recurrent Memory Transformer-based Blind Video Quality Assessment for Enhanced Video Content [7.283653823423298]
本稿では,映像コンテンツの改良を目的とした新しいブラインド・ディープ・ビデオ品質評価手法を提案する。
新しいリカレントメモリトランス (Recurrent Memory Transformer, RMT) ベースのネットワークアーキテクチャを使用して、ビデオ品質の表現を得る。
抽出された品質表現は線形回帰によって合成され、ビデオレベルの品質指標を生成する。
論文 参考訳(メタデータ) (2024-05-14T14:01:15Z) - Towards A Better Metric for Text-to-Video Generation [102.16250512265995]
生成モデルは高品質のテキスト、画像、ビデオの合成において顕著な能力を示した。
新たな評価パイプラインであるText-to-Video Score(T2VScore)を導入する。
本尺度は,(1)テキスト記述における映像の忠実度を精査するテキスト・ビデオ・アライメント,(2)ビデオ品質,(2)ビデオ全体の製作口径を専門家の混合で評価するビデオ品質の2つの重要な基準を統合した。
論文 参考訳(メタデータ) (2024-01-15T15:42:39Z) - EvalCrafter: Benchmarking and Evaluating Large Video Generation Models [70.19437817951673]
これらのモデルはしばしば、マルチアスペクト能力を持つ非常に大きなデータセットで訓練されているので、単純な指標から大きな条件生成モデルを判断することは困難である、と我々は主張する。
我々のアプローチは、テキスト・ツー・ビデオ生成のための700のプロンプトの多種多様な包括的リストを作成することである。
そこで我々は、視覚的品質、コンテンツ品質、動作品質、テキスト・ビデオアライメントの観点から、慎重に設計されたベンチマークに基づいて、最先端のビデオ生成モデルを評価する。
論文 参考訳(メタデータ) (2023-10-17T17:50:46Z) - Full Reference Video Quality Assessment for Machine Learning-Based Video
Codecs [12.024300171633758]
DSPをベースとしたビデオコーデックを設計・訓練した既存の評価指標は,MLビデオコーデックを用いた場合の主観的評価と強く相関しないことを示す。
モデルレベルではピアソン相関係数0.99、スピアマンランク相関係数0.99を達成する新しいフルリファレンスビデオ品質評価(FRVQA)モデルを提案する。
論文 参考訳(メタデータ) (2023-09-02T00:32:26Z) - A Coding Framework and Benchmark towards Low-Bitrate Video Understanding [63.05385140193666]
我々は,従来のコーデックとニューラルネットワーク(NN)の両方を活用する,従来型ニューラル混合符号化フレームワークを提案する。
このフレームワークは、動画の移動効率の良いセマンティック表現を確実に保持することで最適化される。
8つのデータセットに3つのダウンストリームタスクを備えた低ビットレートビデオ理解ベンチマークを構築し、このアプローチの顕著な優位性を実証した。
論文 参考訳(メタデータ) (2022-02-06T16:29:15Z) - Objective video quality metrics application to video codecs comparisons:
choosing the best for subjective quality estimation [101.18253437732933]
品質評価は、ビデオ圧縮アルゴリズムの作成と比較において重要な役割を果たす。
比較のために、異なる標準のビデオコーデックでエンコードされた一連のビデオを使用し、2018年から2021年までの一連のストリームに対して、視覚的品質スコアを収集しました。
論文 参考訳(メタデータ) (2021-07-21T17:18:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。