論文の概要: Video Interpolation by Event-driven Anisotropic Adjustment of Optical
Flow
- arxiv url: http://arxiv.org/abs/2208.09127v1
- Date: Fri, 19 Aug 2022 02:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 16:35:25.619624
- Title: Video Interpolation by Event-driven Anisotropic Adjustment of Optical
Flow
- Title(参考訳): イベント駆動型光流異方性調整による映像補間
- Authors: Song Wu, Kaichao You, Weihua He, Chen Yang, Yang Tian, Yaoyuan Wang,
Ziyang Zhang, Jianxing Liao
- Abstract要約: イベント駆動型光フローの異方性調整によるビデオフレームのエンドツーエンドトレーニング手法A2OFを提案する。
具体的には、2つのフレーム間の複雑な動きをモデル化できる中間光学フローのための光フロー分布マスクを生成するためにイベントを使用する。
- 参考スコア(独自算出の注目度): 11.914613556594725
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Video frame interpolation is a challenging task due to the ever-changing
real-world scene. Previous methods often calculate the bi-directional optical
flows and then predict the intermediate optical flows under the linear motion
assumptions, leading to isotropic intermediate flow generation. Follow-up
research obtained anisotropic adjustment through estimated higher-order motion
information with extra frames. Based on the motion assumptions, their methods
are hard to model the complicated motion in real scenes. In this paper, we
propose an end-to-end training method A^2OF for video frame interpolation with
event-driven Anisotropic Adjustment of Optical Flows. Specifically, we use
events to generate optical flow distribution masks for the intermediate optical
flow, which can model the complicated motion between two frames. Our proposed
method outperforms the previous methods in video frame interpolation, taking
supervised event-based video interpolation to a higher stage.
- Abstract(参考訳): ビデオフレームの補間は、変化する現実世界のシーンのために難しい作業だ。
従来の手法はしばしば双方向の光流を計算し、線形運動仮定の下で中間の光流を予測し、等方的な中間流を生成する。
追跡研究は、余分なフレームを持つ推定された高次モーション情報による異方性調整を得た。
動きの仮定に基づいて、実際のシーンで複雑な動きをモデル化することは困難である。
本稿では,イベント駆動型光フローの異方性調整を用いたビデオフレーム補間のためのエンドツーエンドトレーニング手法A^2OFを提案する。
具体的には、2つのフレーム間の複雑な動きをモデル化できる中間光学フローのための光フロー分布マスクを生成する。
提案手法は,映像フレーム補間における従来の手法よりも優れ,教師付きイベントベースビデオ補間をより高い段階に進める。
関連論文リスト
- Generalizable Implicit Motion Modeling for Video Frame Interpolation [51.966062283735596]
フローベースビデオフレーム補間(VFI)における動きの重要性
本稿では,動きモデリングVFIの新規かつ効果的なアプローチである一般インプリシット・モーション・モデリング(IMM)を紹介する。
我々のGIMMは、正確にモデル化された動きを供給することによって、既存のフローベースVFIワークと容易に統合できる。
論文 参考訳(メタデータ) (2024-07-11T17:13:15Z) - Motion-aware Latent Diffusion Models for Video Frame Interpolation [51.78737270917301]
隣接するフレーム間の動き推定は、動きのあいまいさを避ける上で重要な役割を担っている。
我々は、新しい拡散フレームワーク、動き認識潜在拡散モデル(MADiff)を提案する。
提案手法は,既存手法を著しく上回る最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T05:09:56Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - IDO-VFI: Identifying Dynamics via Optical Flow Guidance for Video Frame
Interpolation with Events [14.098949778274733]
イベントカメラは、フレーム間のダイナミクスを極めて高い時間分解能で捉えるのに最適である。
IDO-VFIというイベント・アンド・フレームベースのビデオフレーム方式を提案する。
提案手法は,Vimeo90Kデータセット上での計算時間と計算労力をそれぞれ10%と17%削減しつつ,高品質な性能を維持する。
論文 参考訳(メタデータ) (2023-05-17T13:22:21Z) - Frame Interpolation for Dynamic Scenes with Implicit Flow Encoding [10.445563506186307]
本稿では,動的シーンの2対のイメージ間を補間するアルゴリズムを提案する。
我々は、照明の変動に対して非常に頑健な既存の光学フロー手法を利用する。
我々の手法は、最先端のフレームブレンディングアルゴリズムよりもはるかに優れた結果が得られる。
論文 参考訳(メタデータ) (2022-09-27T10:00:05Z) - Meta-Interpolation: Time-Arbitrary Frame Interpolation via Dual
Meta-Learning [65.85319901760478]
我々はメタ学習の助けを借りて、適応的に生成された畳み込みカーネルで異なる時間ステップを統一的に処理することを検討する。
我々は、コンテキスト情報と光フローのガイダンスを用いて、中間フレームを合成するデュアルメタ学習フレームフレームワークを開発した。
論文 参考訳(メタデータ) (2022-07-27T17:36:23Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。