論文の概要: A Subjective Quality Study for Video Frame Interpolation
- arxiv url: http://arxiv.org/abs/2202.07727v1
- Date: Tue, 15 Feb 2022 21:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 15:59:43.534809
- Title: A Subjective Quality Study for Video Frame Interpolation
- Title(参考訳): 映像フレーム補間における主観的品質調査
- Authors: Duolikun Danier, Fan Zhang and David Bull
- Abstract要約: 本稿では,新たに開発されたビデオデータベースBVI-VFIに基づくビデオフレーム(VFI)の主観的品質調査について述べる。
BVI-VFIは、3つの異なるフレームレートで36の参照シーケンスと、5つの従来の学習ベースのVFIアルゴリズムを用いて生成された180の歪みビデオを含んでいる。
- 参考スコア(独自算出の注目度): 4.151439675744056
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Video frame interpolation (VFI) is one of the fundamental research areas in
video processing and there has been extensive research on novel and enhanced
interpolation algorithms. The same is not true for quality assessment of the
interpolated content. In this paper, we describe a subjective quality study for
VFI based on a newly developed video database, BVI-VFI. BVI-VFI contains 36
reference sequences at three different frame rates and 180 distorted videos
generated using five conventional and learning based VFI algorithms. Subjective
opinion scores have been collected from 60 human participants, and then
employed to evaluate eight popular quality metrics, including PSNR, SSIM and
LPIPS which are all commonly used for assessing VFI methods. The results
indicate that none of these metrics provide acceptable correlation with the
perceived quality on interpolated content, with the best-performing metric,
LPIPS, offering a SROCC value below 0.6. Our findings show that there is an
urgent need to develop a bespoke perceptual quality metric for VFI. The BVI-VFI
dataset is publicly available and can be accessed at
https://danielism97.github.io/BVI-VFI/.
- Abstract(参考訳): ビデオフレーム補間(VFI)は,ビデオ処理における基礎研究の1つであり,新しい補間アルゴリズムや拡張補間アルゴリズムの研究が盛んである。
補間されたコンテンツの品質評価にも同じことが当てはまらない。
本稿では,新たに開発されたビデオデータベースBVI-VFIに基づくVFIの主観的品質調査について述べる。
BVI-VFIは、3つの異なるフレームレートで36の参照シーケンスと、5つの従来の学習ベースのVFIアルゴリズムを用いて生成された180の歪みビデオを含んでいる。
主観的評価スコアは60人の被験者から収集され、PSNR、SSIM、LPIPSを含む8つの一般的な品質指標の評価に使用される。
その結果、これらの指標は補間コンテンツの品質と許容できる相関性を持たず、最も優れた指標であるlpipsは0.6未満のsrocc値を示した。
以上の結果から,VFIの知覚品質測定基準の確立が急務であることが示唆された。
BVI-VFIデータセットは公開されており、https://danielism97.github.io/BVI-VFI/でアクセスできる。
関連論文リスト
- Towards Explainable In-the-Wild Video Quality Assessment: A Database and
a Language-Prompted Approach [52.07084862209754]
われわれは、13次元の質関連因子に関する4,543本のビデオについて200万以上の意見を集めている。
具体的には、各次元に対して正、負、中立の選択をラベル付けするよう被験者に求める。
これらの説明レベルの意見は、特定の品質要因と抽象的な主観的品質評価の関係を測ることができる。
論文 参考訳(メタデータ) (2023-05-22T05:20:23Z) - LDMVFI: Video Frame Interpolation with Latent Diffusion Models [3.884484241124158]
本稿では,遅延拡散モデルに基づくVFI,LDMVFIを提案する。
このことは、VFI問題を条件生成問題として定式化することによって、生成の観点からアプローチする。
LDMVFIは,高解像度政権においても,映像コンテンツを知覚的品質で補間できることを示す実験とユーザスタディを行った。
論文 参考訳(メタデータ) (2023-03-16T17:24:41Z) - UATVR: Uncertainty-Adaptive Text-Video Retrieval [90.8952122146241]
一般的なプラクティスは、テキストとビデオのペアを同じ埋め込みスペースに転送し、特定のエンティティとのクロスモーダルなインタラクションを構築することである。
UATVRと呼ばれる不確実性言語によるテキスト・ビデオ検索手法を提案し、各ルックアップを分布マッチング手順としてモデル化する。
論文 参考訳(メタデータ) (2023-01-16T08:43:17Z) - Video compression dataset and benchmark of learning-based video-quality
metrics [55.41644538483948]
本稿では,ビデオ圧縮の評価を行うビデオ品質指標の新しいベンチマークを提案する。
これは、異なる標準でエンコードされた約2,500のストリームからなる、新しいデータセットに基づいている。
クラウドソーシングによるペアワイズ比較により,主観的スコアを収集した。
論文 参考訳(メタデータ) (2022-11-22T09:22:28Z) - BVI-VFI: A Video Quality Database for Video Frame Interpolation [3.884484241124158]
ビデオフレーム(VFI)は、ビデオ処理における基本的な研究課題である。
BVI-VFIは、5つのよく使われるVFIアルゴリズムを適用して生成された540の歪んだシーケンスを含む。
新しいデータベース上で、33の古典的かつ最先端の客観的画像/映像品質指標のパフォーマンスをベンチマークした。
論文 参考訳(メタデータ) (2022-10-03T11:15:05Z) - FloLPIPS: A Bespoke Video Quality Metric for Frame Interpoation [4.151439675744056]
本稿では,VFIのためのフルレファレンスビデオ品質基準であるFloLPIPSについて述べる。
FloLPIPSは、12のポピュラーな品質評価器よりも主観的根拠真理との相関性能が優れている。
論文 参考訳(メタデータ) (2022-07-17T09:07:33Z) - FAST-VQA: Efficient End-to-end Video Quality Assessment with Fragment
Sampling [54.31355080688127]
現在のDeep Video Quality Assessment (VQA) 法は通常、高解像度ビデオを評価する際に高い計算コストがかかる。
そこで我々はGrid Mini-patch Smpling (GMS)を提案する。
フラグメント・アテンション・ネットワーク(FANet)は,フラグメントを入力として扱うように設計されている。
FAST-VQAは1080P高解像度ビデオで99.5%のFLOPを削減し、最先端の精度を約10%向上させる。
論文 参考訳(メタデータ) (2022-07-06T11:11:43Z) - VFHQ: A High-Quality Dataset and Benchmark for Video Face
Super-Resolution [22.236432686296233]
高品質なビデオ顔データセット(VFHQ)を収集する,自動かつスケーラブルなパイプラインを開発した。
VFHQには、さまざまなインタビューシナリオの高忠実度クリップが16,000ドル以上含まれている。
ビデオの一貫性の問題を排除する上で,時間的情報が重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2022-05-06T16:31:57Z) - Subjective and Objective Quality Assessment of High Frame Rate Videos [60.970191379802095]
高フレームレート(HFR)ビデオは、スポーツなどのライブ、高アクションのストリーミングコンテンツが驚くほど人気を博し、ますます一般的になっている。
ライブYT-HFRデータセットは、6つの異なるフレームレートを持つ480のビデオで構成され、16の多様なコンテンツから得られる。
ビデオの主観的ラベルを得るために,85人の被験者のプールから得られた品質評価を19,000件取得した。
論文 参考訳(メタデータ) (2020-07-22T19:11:42Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。