論文の概要: An Efficient Quality Metric for Video Frame Interpolation Based on Motion-Field Divergence
- arxiv url: http://arxiv.org/abs/2510.01361v1
- Date: Wed, 01 Oct 2025 18:40:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.826754
- Title: An Efficient Quality Metric for Video Frame Interpolation Based on Motion-Field Divergence
- Title(参考訳): 動き場変化に基づくビデオフレーム補間のための効率的な品質基準
- Authors: Conall Daly, Darren Ramsook, Anil Kokaram,
- Abstract要約: ビデオフレームは時間的ビデオ強調の基本的なツールであるが、既存の品質指標は、人工物の影響を効果的に評価するのに苦労している。
動きの発散重み付けによりPSNRを強化する新しい完全参照品質指標であるtextPSNR_textDIV$を提示する。
提案手法では,画像誤差の重み付けに使用される運動場の特異点に着目した。
- 参考スコア(独自算出の注目度): 0.3823356975862005
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Video frame interpolation is a fundamental tool for temporal video enhancement, but existing quality metrics struggle to evaluate the perceptual impact of interpolation artefacts effectively. Metrics like PSNR, SSIM and LPIPS ignore temporal coherence. State-of-the-art quality metrics tailored towards video frame interpolation, like FloLPIPS, have been developed but suffer from computational inefficiency that limits their practical application. We present $\text{PSNR}_{\text{DIV}}$, a novel full-reference quality metric that enhances PSNR through motion divergence weighting, a technique adapted from archival film restoration where it was developed to detect temporal inconsistencies. Our approach highlights singularities in motion fields which is then used to weight image errors. Evaluation on the BVI-VFI dataset (180 sequences across multiple frame rates, resolutions and interpolation methods) shows $\text{PSNR}_{\text{DIV}}$ achieves statistically significant improvements: +0.09 Pearson Linear Correlation Coefficient over FloLPIPS, while being 2.5$\times$ faster and using 4$\times$ less memory. Performance remains consistent across all content categories and are robust to the motion estimator used. The efficiency and accuracy of $\text{PSNR}_{\text{DIV}}$ enables fast quality evaluation and practical use as a loss function for training neural networks for video frame interpolation tasks. An implementation of our metric is available at www.github.com/conalld/psnr-div.
- Abstract(参考訳): ビデオフレーム補間は時間的ビデオ強調のための基本的なツールであるが、既存の品質指標は補間アーチファクトの知覚的影響を効果的に評価するのに苦労している。
PSNR、SSIM、LPIPSなどのメトリクスは時間的コヒーレンスを無視している。
FloLPIPSのようなビデオフレーム補間のために調整された最先端の品質メトリクスは開発されているが、その実用性を制限する計算の非効率さに悩まされている。
動きのばらつき重み付けによりPSNRを向上する新しい完全参照品質指標である$\text{PSNR}_{\text{DIV}}$について述べる。
提案手法では,画像誤差の重み付けに使用される運動場の特異点に着目した。
BVI-VFIデータセット(複数のフレームレート、解像度、補間方法にわたる180のシーケンス)の評価では、$\text{PSNR}_{\text{DIV}}$は統計的に重要な改善を実現している。
パフォーマンスは、すべてのコンテンツカテゴリで一貫しており、使用するモーション推定器に対して堅牢である。
$\text{PSNR}_{\text{DIV}}$の効率と精度は、ビデオフレーム補間タスクのためのニューラルネットワークをトレーニングするための損失関数として、高速な品質評価と実用的な使用を可能にする。
私たちのメトリクスの実装はwww.github.com/conalld/psnr-divで公開されています。
関連論文リスト
- Efficient motion-based metrics for video frame interpolation [0.3823356975862005]
本研究では,運動場の分散度を計測する動き計測手法を提案する。
次に、提案したメトリクスを使用して、アートフレームメトリクスのさまざまな状態を評価する。
論文 参考訳(メタデータ) (2025-08-12T16:57:22Z) - Video Dynamics Prior: An Internal Learning Approach for Robust Video
Enhancements [83.5820690348833]
外部トレーニングデータコーパスを必要としない低レベルの視覚タスクのためのフレームワークを提案する。
提案手法は,コヒーレンス・時間的テストの重み付けと統計内部統計を利用して,破損したシーケンスを最適化することでニューラルモジュールを学習する。
論文 参考訳(メタデータ) (2023-12-13T01:57:11Z) - IBVC: Interpolation-driven B-frame Video Compression [68.18440522300536]
Bフレームビデオ圧縮は、双方向動作推定と動き補償(MEMC)符号化をミドルフレーム再構成に適用することを目的としている。
従来の学習アプローチでは、しばしば双方向の光フロー推定に依存するニューラルネットワークのPフレームコーデックをBフレームに直接拡張する。
これらの問題に対処するために,IBVC (Interpolation-B-frame Video Compression) という単純な構造を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:45:51Z) - Dynamic Frame Interpolation in Wavelet Domain [57.25341639095404]
ビデオフレームは、より流動的な視覚体験のためにフレームレートを上げることができる、重要な低レベルな計算ビジョンタスクである。
既存の手法は、高度なモーションモデルと合成ネットワークを利用することで大きな成功を収めた。
WaveletVFIは、同様の精度を維持しながら最大40%の計算を削減できるため、他の最先端技術に対してより効率的に処理できる。
論文 参考訳(メタデータ) (2023-09-07T06:41:15Z) - You Can Ground Earlier than See: An Effective and Efficient Pipeline for
Temporal Sentence Grounding in Compressed Videos [56.676761067861236]
ビデオがトリミングされていない場合、時間的文のグラウンド化は、文問合せに従って目的のモーメントを意味的に見つけることを目的としている。
それまでの優れた作品は、かなり成功したが、それらはデコードされたフレームから抽出されたハイレベルな視覚的特徴にのみ焦点を当てている。
本稿では,圧縮された映像を直接視覚入力として利用する,圧縮された領域のTSGを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:53:27Z) - FloLPIPS: A Bespoke Video Quality Metric for Frame Interpoation [4.151439675744056]
本稿では,VFIのためのフルレファレンスビデオ品質基準であるFloLPIPSについて述べる。
FloLPIPSは、12のポピュラーな品質評価器よりも主観的根拠真理との相関性能が優れている。
論文 参考訳(メタデータ) (2022-07-17T09:07:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。