論文の概要: A Subjective Quality Study for Video Frame Interpolation
- arxiv url: http://arxiv.org/abs/2202.07727v2
- Date: Thu, 22 Jun 2023 12:56:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 18:20:31.246624
- Title: A Subjective Quality Study for Video Frame Interpolation
- Title(参考訳): 映像フレーム補間における主観的品質調査
- Authors: Duolikun Danier, Fan Zhang and David Bull
- Abstract要約: 本稿では,新たに開発されたビデオデータベースBVI-VFIに基づくビデオフレーム(VFI)の主観的品質調査について述べる。
BVI-VFIは、3つの異なるフレームレートで36の参照シーケンスと、5つの従来の学習ベースのVFIアルゴリズムを用いて生成された180の歪みビデオを含んでいる。
- 参考スコア(独自算出の注目度): 4.151439675744056
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Video frame interpolation (VFI) is one of the fundamental research areas in
video processing and there has been extensive research on novel and enhanced
interpolation algorithms. The same is not true for quality assessment of the
interpolated content. In this paper, we describe a subjective quality study for
VFI based on a newly developed video database, BVI-VFI. BVI-VFI contains 36
reference sequences at three different frame rates and 180 distorted videos
generated using five conventional and learning based VFI algorithms. Subjective
opinion scores have been collected from 60 human participants, and then
employed to evaluate eight popular quality metrics, including PSNR, SSIM and
LPIPS which are all commonly used for assessing VFI methods. The results
indicate that none of these metrics provide acceptable correlation with the
perceived quality on interpolated content, with the best-performing metric,
LPIPS, offering a SROCC value below 0.6. Our findings show that there is an
urgent need to develop a bespoke perceptual quality metric for VFI. The BVI-VFI
dataset is publicly available and can be accessed at
https://danier97.github.io/BVI-VFI/.
- Abstract(参考訳): ビデオフレーム補間(VFI)は,ビデオ処理における基礎研究の1つであり,新しい補間アルゴリズムや拡張補間アルゴリズムの研究が盛んである。
補間されたコンテンツの品質評価にも同じことが当てはまらない。
本稿では,新たに開発されたビデオデータベースBVI-VFIに基づくVFIの主観的品質調査について述べる。
BVI-VFIは、3つの異なるフレームレートで36の参照シーケンスと、5つの従来の学習ベースのVFIアルゴリズムを用いて生成された180の歪みビデオを含んでいる。
主観的評価スコアは60人の被験者から収集され、PSNR、SSIM、LPIPSを含む8つの一般的な品質指標の評価に使用される。
その結果、これらの指標は補間コンテンツの品質と許容できる相関性を持たず、最も優れた指標であるlpipsは0.6未満のsrocc値を示した。
以上の結果から,VFIの知覚品質測定基準の確立が急務であることが示唆された。
BVI-VFIデータセットは公開されており、https://danier97.github.io/BVI-VFI/でアクセスできる。
関連論文リスト
- AIM 2024 Challenge on Compressed Video Quality Assessment: Methods and Results [120.95863275142727]
本稿では,ECCV 2024における画像操作の進歩(AIM)ワークショップと共同で開催されている圧縮映像品質評価の課題について述べる。
この課題は、様々な圧縮標準の14コーデックで符号化された459本の動画の多様なデータセット上で、VQA法の性能を評価することであった。
論文 参考訳(メタデータ) (2024-08-21T20:32:45Z) - BVI-UGC: A Video Quality Database for User-Generated Content Transcoding [25.371693436870906]
ユーザ生成コンテンツ(UGC)のための新しいビデオ品質データベースBVI-UGCを提案する。
BVI-UGCには60(非プリスティン)の参照ビデオと1,080のテストシーケンスが含まれている。
私たちは、10のフル参照と11のノン参照品質メトリクスのパフォーマンスをベンチマークしました。
論文 参考訳(メタデータ) (2024-08-13T19:30:12Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - Towards Explainable In-the-Wild Video Quality Assessment: A Database and
a Language-Prompted Approach [52.07084862209754]
われわれは、13次元の質関連因子に関する4,543本のビデオについて200万以上の意見を集めている。
具体的には、各次元に対して正、負、中立の選択をラベル付けするよう被験者に求める。
これらの説明レベルの意見は、特定の品質要因と抽象的な主観的品質評価の関係を測ることができる。
論文 参考訳(メタデータ) (2023-05-22T05:20:23Z) - UATVR: Uncertainty-Adaptive Text-Video Retrieval [90.8952122146241]
一般的なプラクティスは、テキストとビデオのペアを同じ埋め込みスペースに転送し、特定のエンティティとのクロスモーダルなインタラクションを構築することである。
UATVRと呼ばれる不確実性言語によるテキスト・ビデオ検索手法を提案し、各ルックアップを分布マッチング手順としてモデル化する。
論文 参考訳(メタデータ) (2023-01-16T08:43:17Z) - Video compression dataset and benchmark of learning-based video-quality
metrics [55.41644538483948]
本稿では,ビデオ圧縮の評価を行うビデオ品質指標の新しいベンチマークを提案する。
これは、異なる標準でエンコードされた約2,500のストリームからなる、新しいデータセットに基づいている。
クラウドソーシングによるペアワイズ比較により,主観的スコアを収集した。
論文 参考訳(メタデータ) (2022-11-22T09:22:28Z) - BVI-VFI: A Video Quality Database for Video Frame Interpolation [3.884484241124158]
ビデオフレーム(VFI)は、ビデオ処理における基本的な研究課題である。
BVI-VFIは、5つのよく使われるVFIアルゴリズムを適用して生成された540の歪んだシーケンスを含む。
新しいデータベース上で、33の古典的かつ最先端の客観的画像/映像品質指標のパフォーマンスをベンチマークした。
論文 参考訳(メタデータ) (2022-10-03T11:15:05Z) - FloLPIPS: A Bespoke Video Quality Metric for Frame Interpoation [4.151439675744056]
本稿では,VFIのためのフルレファレンスビデオ品質基準であるFloLPIPSについて述べる。
FloLPIPSは、12のポピュラーな品質評価器よりも主観的根拠真理との相関性能が優れている。
論文 参考訳(メタデータ) (2022-07-17T09:07:33Z) - VFHQ: A High-Quality Dataset and Benchmark for Video Face
Super-Resolution [22.236432686296233]
高品質なビデオ顔データセット(VFHQ)を収集する,自動かつスケーラブルなパイプラインを開発した。
VFHQには、さまざまなインタビューシナリオの高忠実度クリップが16,000ドル以上含まれている。
ビデオの一貫性の問題を排除する上で,時間的情報が重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2022-05-06T16:31:57Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。