論文の概要: Efficient motion-based metrics for video frame interpolation
- arxiv url: http://arxiv.org/abs/2508.09078v1
- Date: Tue, 12 Aug 2025 16:57:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.51405
- Title: Efficient motion-based metrics for video frame interpolation
- Title(参考訳): 映像フレーム補間のための高能率モーションベースメトリクス
- Authors: Conall Daly, Darren Ramsook, Anil Kokaram,
- Abstract要約: 本研究では,運動場の分散度を計測する動き計測手法を提案する。
次に、提案したメトリクスを使用して、アートフレームメトリクスのさまざまな状態を評価する。
- 参考スコア(独自算出の注目度): 0.6827423171182154
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Video frame interpolation (VFI) offers a way to generate intermediate frames between consecutive frames of a video sequence. Although the development of advanced frame interpolation algorithms has received increased attention in recent years, assessing the perceptual quality of interpolated content remains an ongoing area of research. In this paper, we investigate simple ways to process motion fields, with the purposes of using them as video quality metric for evaluating frame interpolation algorithms. We evaluate these quality metrics using the BVI-VFI dataset which contains perceptual scores measured for interpolated sequences. From our investigation we propose a motion metric based on measuring the divergence of motion fields. This metric correlates reasonably with these perceptual scores (PLCC=0.51) and is more computationally efficient (x2.7 speedup) compared to FloLPIPS (a well known motion-based metric). We then use our new proposed metrics to evaluate a range of state of the art frame interpolation metrics and find our metrics tend to favour more perceptual pleasing interpolated frames that may not score highly in terms of PSNR or SSIM.
- Abstract(参考訳): ビデオフレーム補間(VFI)は、ビデオシーケンスの連続フレーム間の中間フレームを生成する方法を提供する。
近年, 高度なフレーム補間アルゴリズムの開発が注目されているが, 補間コンテンツの知覚的品質の評価は現在も進行中である。
本稿では,フレーム補間アルゴリズムを評価するためのビデオ品質指標として,モーションフィールドの単純な処理方法について検討する。
補間シーケンスで測定された知覚スコアを含むBVI-VFIデータセットを用いて,これらの品質指標を評価する。
本研究から,運動場のばらつきを計測した運動量測定法を提案する。
このメートル法は、これらの知覚スコア(PLCC=0.51)と合理的に相関し、FloLPIPS(よく知られたモーションベースのメートル法)よりも計算効率が良い(x2.7スピードアップ)。
次に、提案した指標を用いて、最先端のフレーム補間測定値の幅を評価し、PSNRやSSIMの点で高く評価されないような補間フレームをより知覚的に楽しむ傾向にあることを示す。
関連論文リスト
- IDO-VFI: Identifying Dynamics via Optical Flow Guidance for Video Frame
Interpolation with Events [14.098949778274733]
イベントカメラは、フレーム間のダイナミクスを極めて高い時間分解能で捉えるのに最適である。
IDO-VFIというイベント・アンド・フレームベースのビデオフレーム方式を提案する。
提案手法は,Vimeo90Kデータセット上での計算時間と計算労力をそれぞれ10%と17%削減しつつ,高品質な性能を維持する。
論文 参考訳(メタデータ) (2023-05-17T13:22:21Z) - PMI Sampler: Patch Similarity Guided Frame Selection for Aerial Action
Recognition [52.78234467516168]
本稿では、隣接フレーム間の動きバイアスを定量化するために、パッチ相互情報(PMI)スコアの概念を導入する。
シフトリークReLuと累積分布関数を用いた適応フレーム選択方式を提案する。
本手法は,UAV-Humanの2.2~13.8%,NEC Droneの6.8%,Diving48データセットの9.0%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2023-04-14T00:01:11Z) - A Unified Framework for Event-based Frame Interpolation with Ad-hoc Deblurring in the Wild [72.0226493284814]
本稿では,デブロリングアドホックを行うイベントベースフレームの統一フレームワークを提案する。
我々のネットワークは、フレーム上の従来の最先端の手法、単一画像のデブロアリング、および両者のジョイントタスクを一貫して上回ります。
論文 参考訳(メタデータ) (2023-01-12T18:19:00Z) - A Perceptual Quality Metric for Video Frame Interpolation [6.743340926667941]
ビデオフレームの結果は、しばしばユニークな成果物であるので、既存の品質指標は、結果を測定するときに人間の知覚と一致しないことがある。
最近のディープラーニングベースの品質指標は、人間の判断とより整合性を示すが、時間的情報を考慮していないため、ビデオ上でのパフォーマンスは損なわれている。
本手法は,個々のフレームではなく,ビデオから直接知覚的特徴を学習する。
論文 参考訳(メタデータ) (2022-10-04T19:56:10Z) - Correspondence Matters for Video Referring Expression Comprehension [64.60046797561455]
ビデオ参照表現(REC)は、文章に記述された参照オブジェクトをビデオフレーム内の視覚領域にローカライズすることを目的としている。
既存の手法では,1)ビデオフレーム間の非一貫性な局所化結果,2)参照オブジェクトとコンテキストオブジェクトの混同という2つの問題に悩まされている。
本稿では、フレーム間およびクロスモーダルの両方で密接な関連性を明確に強化する新しいデュアル対応ネットワーク(DCNet)を提案する。
論文 参考訳(メタデータ) (2022-07-21T10:31:39Z) - FloLPIPS: A Bespoke Video Quality Metric for Frame Interpoation [4.151439675744056]
本稿では,VFIのためのフルレファレンスビデオ品質基準であるFloLPIPSについて述べる。
FloLPIPSは、12のポピュラーな品質評価器よりも主観的根拠真理との相関性能が優れている。
論文 参考訳(メタデータ) (2022-07-17T09:07:33Z) - Asymmetric Bilateral Motion Estimation for Video Frame Interpolation [50.44508853885882]
非対称な左右運動推定(ABME)に基づく新しいビデオフレームアルゴリズムを提案する。
我々は左右対称運動場を予測してアンカーフレームを補間する。
アンカーフレームから入力フレームへの非対称な左右運動場を推定する。
第三に、非対称場を用いて入力フレームを後方にワープし、中間フレームを再構築する。
論文 参考訳(メタデータ) (2021-08-15T21:11:35Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。