論文の概要: AceVFI: A Comprehensive Survey of Advances in Video Frame Interpolation
- arxiv url: http://arxiv.org/abs/2506.01061v1
- Date: Sun, 01 Jun 2025 16:01:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.914087
- Title: AceVFI: A Comprehensive Survey of Advances in Video Frame Interpolation
- Title(参考訳): AceVFI:ビデオフレーム補間技術の総合的調査
- Authors: Dahyeon Kye, Changhyun Roh, Sukhun Ko, Chanho Eom, Jihyong Oh,
- Abstract要約: ビデオフレーム補間(VFI)は、既存のフレーム間で中間フレームを合成する基本的な低レベルビジョン(LLV)タスクである。
これまでにVFIに関する最も包括的な調査であるAceVFIを紹介します。
中心時間フレーム補間(CTFI)と任意時間フレーム補間(ATFI)の学習パラダイムを分類する。
- 参考スコア(独自算出の注目度): 8.563354084119062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video Frame Interpolation (VFI) is a fundamental Low-Level Vision (LLV) task that synthesizes intermediate frames between existing ones while maintaining spatial and temporal coherence. VFI techniques have evolved from classical motion compensation-based approach to deep learning-based approach, including kernel-, flow-, hybrid-, phase-, GAN-, Transformer-, Mamba-, and more recently diffusion model-based approach. We introduce AceVFI, the most comprehensive survey on VFI to date, covering over 250+ papers across these approaches. We systematically organize and describe VFI methodologies, detailing the core principles, design assumptions, and technical characteristics of each approach. We categorize the learning paradigm of VFI methods namely, Center-Time Frame Interpolation (CTFI) and Arbitrary-Time Frame Interpolation (ATFI). We analyze key challenges of VFI such as large motion, occlusion, lighting variation, and non-linear motion. In addition, we review standard datasets, loss functions, evaluation metrics. We examine applications of VFI including event-based, cartoon, medical image VFI and joint VFI with other LLV tasks. We conclude by outlining promising future research directions to support continued progress in the field. This survey aims to serve as a unified reference for both newcomers and experts seeking a deep understanding of modern VFI landscapes.
- Abstract(参考訳): ビデオフレーム補間(VFI)は、空間的および時間的コヒーレンスを維持しながら、既存のフレーム間の中間フレームを合成する基本的な低レベルビジョン(LLV)タスクである。
VFI技術は、カーネル、フロー、ハイブリッド、フェーズ-、GAN-、Transformer-、Mamba-、最近では拡散モデルベースアプローチなど、古典的な動き補償に基づくアプローチからディープラーニングベースのアプローチへと進化してきた。
これまでにVFIに関する最も包括的な調査であるAceVFIを紹介します。
我々は,VFI方法論を体系的に整理し,基本原則,設計前提,各アプローチの技術的特徴を詳述する。
本稿では,VFI手法の学習パラダイムであるCTFI(Center-Time Frame Interpolation)とATFI(Arbitrary-Time Frame Interpolation)を分類する。
我々は,大動き,閉塞,照明変動,非線形運動などのVFIの課題を分析する。
さらに、標準データセット、損失関数、評価指標についてもレビューする。
本稿では、イベントベース、漫画、医用画像VFI、および他のLLVタスクとの共同VFIを含むVFIの応用について検討する。
今後の今後の今後の研究の方向性を概説し、今後の発展を支える。
本調査は, 現代VFI景観の深い理解を求める新参者, 専門家の双方にとって, 統一的な参考となることを目的としている。
関連論文リスト
- Continual Learning for VLMs: A Survey and Taxonomy Beyond Forgetting [70.83781268763215]
視覚言語モデル(VLM)は、大規模事前学習を活用することで、多様なマルチモーダルタスクにおいて優れたパフォーマンスを実現している。
VLMは、クロスモーダル機能ドリフト、共有アーキテクチャによるパラメータ干渉、ゼロショット機能侵食など、ユニークな課題に直面している。
本調査は、生涯の視覚言語システムを開発する研究者にとって、包括的かつ診断的な基準となることを目的としている。
論文 参考訳(メタデータ) (2025-08-06T09:03:10Z) - Set Pivot Learning: Redefining Generalized Segmentation with Vision Foundation Models [15.321114178936554]
本稿では,ビジョンファウンデーションモデル(VFM)に基づくドメイン一般化(DG)を再定義するパラダイムシフトであるSet Pivot Learningの概念を紹介する。
従来のDGは、トレーニング中にターゲットドメインがアクセスできないと仮定するが、VFMの出現により、この仮定は不明確で時代遅れである。
VFMに基づく新しいドメインマイグレーションタスクであるSet Pivot Learning (SPL)を提案する。
論文 参考訳(メタデータ) (2025-08-03T04:20:35Z) - A Comprehensive Survey on Video Scene Parsing:Advances, Challenges, and Prospects [53.15503034595476]
Video Scene Parsing (VSP) はコンピュータビジョンの基盤として登場した。
VSPはコンピュータビジョンの基盤として現れ、ダイナミックシーンにおける多様な視覚的実体の同時セグメンテーション、認識、追跡を容易にする。
論文 参考訳(メタデータ) (2025-06-16T14:39:03Z) - FedVLMBench: Benchmarking Federated Fine-Tuning of Vision-Language Models [15.102237976107645]
VLM(Vision-Language Models)は、視覚情報とテキスト情報を統合したものである。
最近の取り組みでは、プライバシー問題に対処するために、VLMの微調整にフェデレートラーニング(FL)を導入している。
We present FedVLMBench, first systematic benchmark for federated fine-tuning of VLMs。
論文 参考訳(メタデータ) (2025-06-11T11:52:27Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - Motion-aware Latent Diffusion Models for Video Frame Interpolation [51.78737270917301]
隣接するフレーム間の動き推定は、動きのあいまいさを避ける上で重要な役割を担っている。
我々は、新しい拡散フレームワーク、動き認識潜在拡散モデル(MADiff)を提案する。
提案手法は,既存手法を著しく上回る最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T05:09:56Z) - A Multi-In-Single-Out Network for Video Frame Interpolation without
Optical Flow [14.877766449009119]
深層学習に基づくビデオフレーム (VFI) 法は、2つの入力フレーム間の動きを推定することに集中している。
動作ベクトル推定に依存しないマルチインシングルアウト(MISO)に基づくVFI法を提案する。
我々はMISO-VFIがビデオフレーム内のベクトル時間をよりよくキャプチャできる新しい動き知覚損失を導入した。
論文 参考訳(メタデータ) (2023-11-20T08:29:55Z) - Boost Video Frame Interpolation via Motion Adaptation [73.42573856943923]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを生成することを目的とした課題である。
既存の学習ベースのVFI手法は大きな成功を収めたが、それでも限定的な一般化能力に悩まされている。
テスト時に見えない動作に適応できる新しい最適化ベースのVFI法を提案する。
論文 参考訳(メタデータ) (2023-06-24T10:44:02Z) - LDMVFI: Video Frame Interpolation with Latent Diffusion Models [3.884484241124158]
本稿では,遅延拡散モデルに基づくVFI,LDMVFIを提案する。
このことは、VFI問題を条件生成問題として定式化することによって、生成の観点からアプローチする。
LDMVFIは,高解像度政権においても,映像コンテンツを知覚的品質で補間できることを示す実験とユーザスタディを行った。
論文 参考訳(メタデータ) (2023-03-16T17:24:41Z) - Error-Aware Spatial Ensembles for Video Frame Interpolation [50.63021118973639]
近年,ビデオフレーム(VFI)アルゴリズムは,データ駆動アルゴリズムと実装の両面で前例のない進歩により,大幅に改善されている。
近年の研究では、挑戦的なVFIシナリオに対処する手段として、高度な動き推定や新しいワープ手法が導入されている。
本研究は、光フローとIEの相関関係を詳細に検討することにより、中間フレームを異なるIEレベルに対応する異なる領域に分割する新しいエラー予測指標を提案する。
論文 参考訳(メタデータ) (2022-07-25T16:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。