論文の概要: AceVFI: A Comprehensive Survey of Advances in Video Frame Interpolation
- arxiv url: http://arxiv.org/abs/2506.01061v1
- Date: Sun, 01 Jun 2025 16:01:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.914087
- Title: AceVFI: A Comprehensive Survey of Advances in Video Frame Interpolation
- Title(参考訳): AceVFI:ビデオフレーム補間技術の総合的調査
- Authors: Dahyeon Kye, Changhyun Roh, Sukhun Ko, Chanho Eom, Jihyong Oh,
- Abstract要約: ビデオフレーム補間(VFI)は、既存のフレーム間で中間フレームを合成する基本的な低レベルビジョン(LLV)タスクである。
これまでにVFIに関する最も包括的な調査であるAceVFIを紹介します。
中心時間フレーム補間(CTFI)と任意時間フレーム補間(ATFI)の学習パラダイムを分類する。
- 参考スコア(独自算出の注目度): 8.563354084119062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video Frame Interpolation (VFI) is a fundamental Low-Level Vision (LLV) task that synthesizes intermediate frames between existing ones while maintaining spatial and temporal coherence. VFI techniques have evolved from classical motion compensation-based approach to deep learning-based approach, including kernel-, flow-, hybrid-, phase-, GAN-, Transformer-, Mamba-, and more recently diffusion model-based approach. We introduce AceVFI, the most comprehensive survey on VFI to date, covering over 250+ papers across these approaches. We systematically organize and describe VFI methodologies, detailing the core principles, design assumptions, and technical characteristics of each approach. We categorize the learning paradigm of VFI methods namely, Center-Time Frame Interpolation (CTFI) and Arbitrary-Time Frame Interpolation (ATFI). We analyze key challenges of VFI such as large motion, occlusion, lighting variation, and non-linear motion. In addition, we review standard datasets, loss functions, evaluation metrics. We examine applications of VFI including event-based, cartoon, medical image VFI and joint VFI with other LLV tasks. We conclude by outlining promising future research directions to support continued progress in the field. This survey aims to serve as a unified reference for both newcomers and experts seeking a deep understanding of modern VFI landscapes.
- Abstract(参考訳): ビデオフレーム補間(VFI)は、空間的および時間的コヒーレンスを維持しながら、既存のフレーム間の中間フレームを合成する基本的な低レベルビジョン(LLV)タスクである。
VFI技術は、カーネル、フロー、ハイブリッド、フェーズ-、GAN-、Transformer-、Mamba-、最近では拡散モデルベースアプローチなど、古典的な動き補償に基づくアプローチからディープラーニングベースのアプローチへと進化してきた。
これまでにVFIに関する最も包括的な調査であるAceVFIを紹介します。
我々は,VFI方法論を体系的に整理し,基本原則,設計前提,各アプローチの技術的特徴を詳述する。
本稿では,VFI手法の学習パラダイムであるCTFI(Center-Time Frame Interpolation)とATFI(Arbitrary-Time Frame Interpolation)を分類する。
我々は,大動き,閉塞,照明変動,非線形運動などのVFIの課題を分析する。
さらに、標準データセット、損失関数、評価指標についてもレビューする。
本稿では、イベントベース、漫画、医用画像VFI、および他のLLVタスクとの共同VFIを含むVFIの応用について検討する。
今後の今後の今後の研究の方向性を概説し、今後の発展を支える。
本調査は, 現代VFI景観の深い理解を求める新参者, 専門家の双方にとって, 統一的な参考となることを目的としている。
関連論文リスト
- Motion-aware Latent Diffusion Models for Video Frame Interpolation [51.78737270917301]
隣接するフレーム間の動き推定は、動きのあいまいさを避ける上で重要な役割を担っている。
我々は、新しい拡散フレームワーク、動き認識潜在拡散モデル(MADiff)を提案する。
提案手法は,既存手法を著しく上回る最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T05:09:56Z) - A Multi-In-Single-Out Network for Video Frame Interpolation without
Optical Flow [14.877766449009119]
深層学習に基づくビデオフレーム (VFI) 法は、2つの入力フレーム間の動きを推定することに集中している。
動作ベクトル推定に依存しないマルチインシングルアウト(MISO)に基づくVFI法を提案する。
我々はMISO-VFIがビデオフレーム内のベクトル時間をよりよくキャプチャできる新しい動き知覚損失を導入した。
論文 参考訳(メタデータ) (2023-11-20T08:29:55Z) - Boost Video Frame Interpolation via Motion Adaptation [73.42573856943923]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを生成することを目的とした課題である。
既存の学習ベースのVFI手法は大きな成功を収めたが、それでも限定的な一般化能力に悩まされている。
テスト時に見えない動作に適応できる新しい最適化ベースのVFI法を提案する。
論文 参考訳(メタデータ) (2023-06-24T10:44:02Z) - LDMVFI: Video Frame Interpolation with Latent Diffusion Models [3.884484241124158]
本稿では,遅延拡散モデルに基づくVFI,LDMVFIを提案する。
このことは、VFI問題を条件生成問題として定式化することによって、生成の観点からアプローチする。
LDMVFIは,高解像度政権においても,映像コンテンツを知覚的品質で補間できることを示す実験とユーザスタディを行った。
論文 参考訳(メタデータ) (2023-03-16T17:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。