論文の概要: VTinker: Guided Flow Upsampling and Texture Mapping for High-Resolution Video Frame Interpolation
- arxiv url: http://arxiv.org/abs/2511.16124v1
- Date: Thu, 20 Nov 2025 07:30:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.520312
- Title: VTinker: Guided Flow Upsampling and Texture Mapping for High-Resolution Video Frame Interpolation
- Title(参考訳): VTinker:高分解能ビデオフレーム補間のためのガイドフローアップサンプリングとテクスチャマッピング
- Authors: Chenyang Wu, Jiayi Fu, Chun-Le Guo, Shuhao Han, Chongyi Li,
- Abstract要約: 本稿では,ガイドフローアップサンプリング (GFU) とテクスチャマッピング (Texture Mapping) の2つのコアコンポーネントからなるビデオフレーム補間 (VFI) パイプライン VTinker を提案する。
本研究では,ガイドフローアップサンプリング (GFU) とテクスチャマッピング (Texture Mapping) の2つのコアコンポーネントからなる新しいVFIパイプラインであるVTinkerを提案する。
- 参考スコア(独自算出の注目度): 55.93266219195357
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to large pixel movement and high computational cost, estimating the motion of high-resolution frames is challenging. Thus, most flow-based Video Frame Interpolation (VFI) methods first predict bidirectional flows at low resolution and then use high-magnification upsampling (e.g., bilinear) to obtain the high-resolution ones. However, this kind of upsampling strategy may cause blur or mosaic at the flows' edges. Additionally, the motion of fine pixels at high resolution cannot be adequately captured in motion estimation at low resolution, which leads to the misalignment of task-oriented flows. With such inaccurate flows, input frames are warped and combined pixel-by-pixel, resulting in ghosting and discontinuities in the interpolated frame. In this study, we propose a novel VFI pipeline, VTinker, which consists of two core components: guided flow upsampling (GFU) and Texture Mapping. After motion estimation at low resolution, GFU introduces input frames as guidance to alleviate the blurring details in bilinear upsampling flows, which makes flows' edges clearer. Subsequently, to avoid pixel-level ghosting and discontinuities, Texture Mapping generates an initial interpolated frame, referred to as the intermediate proxy. The proxy serves as a cue for selecting clear texture blocks from the input frames, which are then mapped onto the proxy to facilitate producing the final interpolated frame via a reconstruction module. Extensive experiments demonstrate that VTinker achieves state-of-the-art performance in VFI. Codes are available at: https://github.com/Wucy0519/VTinker.
- Abstract(参考訳): 大きなピクセル移動と高い計算コストのため、高解像度フレームの運動を推定することは困難である。
したがって、ほとんどのフローベースビデオフレーム補間法(VFI)は、まず低分解能で双方向のフローを予測し、次に高分解能のアップサンプリング(例えば、双線形)を用いて高分解能のフローを得る。
しかし、このようなアップサンプリング戦略は、流れの端でぼやけやモザイクを引き起こす可能性がある。
さらに、高解像度での微細画素の動きを低解像度での運動推定では適切に捉えられず、タスク指向フローの誤調整につながる。
このような不正確な流れでは、入力フレームがワープされ、ピクセル単位で組み合わせられ、補間フレーム内でゴーストや不連続が発生する。
本研究では,ガイドフローアップサンプリング (GFU) とテクスチャマッピング (Texture Mapping) の2つのコアコンポーネントからなる新しいVFIパイプラインであるVTinkerを提案する。
低解像度での動作推定の後、GFUは入力フレームを導入し、双方向のアップサンプリングフローのぼやけた詳細を緩和し、流れのエッジをより明確にする。
その後、ピクセルレベルのゴーストや不連続を避けるために、Texture Mappingは中間プロキシと呼ばれる初期補間フレームを生成する。
プロキシは、入力フレームから透明なテクスチャブロックを選択するキューとして機能し、プロキシにマッピングされて、再構築モジュールを介して最終的な補間フレームの生成を容易にする。
大規模な実験により、VTinkerはVFIの最先端性能を達成することが示された。
コードは、https://github.com/Wucy0519/VTinker.comで入手できる。
関連論文リスト
- Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Spatio-Temporal Deformable Attention Network for Video Deblurring [21.514099863308676]
ビデオデブロアリング法の重要な成功要因は、隣接するビデオフレームのシャープピクセルと中フレームのぼやけたピクセルを補償することである。
ビデオフレームの画素単位のぼかしレベルを考慮し,シャープな画素情報を抽出するSTDANetを提案する。
論文 参考訳(メタデータ) (2022-07-22T03:03:08Z) - TTVFI: Learning Trajectory-Aware Transformer for Video Frame
Interpolation [50.49396123016185]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを合成することを目的としている。
ビデオフレーム補間用トラジェクトリ対応トランス (TTVFI) を提案する。
提案手法は,4つの広く使用されているVFIベンチマークにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-19T03:37:49Z) - ARVo: Learning All-Range Volumetric Correspondence for Video Deblurring [92.40655035360729]
ビデオデブラリングモデルは連続フレームを利用して、カメラの揺動や物体の動きからぼやけを取り除く。
特徴空間におけるボケフレーム間の空間的対応を学習する新しい暗黙的手法を提案する。
提案手法は,新たに収集したビデオデブレーション用ハイフレームレート(1000fps)データセットとともに,広く採用されているDVDデータセット上で評価される。
論文 参考訳(メタデータ) (2021-03-07T04:33:13Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。