論文の概要: Video Frame Interpolation without Temporal Priors
- arxiv url: http://arxiv.org/abs/2112.01161v1
- Date: Thu, 2 Dec 2021 12:13:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:29:24.259212
- Title: Video Frame Interpolation without Temporal Priors
- Title(参考訳): 時間的優先順位を伴わない映像フレーム補間
- Authors: Youjian Zhang, Chaoyue Wang, Dacheng Tao
- Abstract要約: ビデオフレームは、既存の中間フレームをビデオシーケンスで合成することを目的としている。
フレーム/秒(FPS)やフレーム露光時間といったビデオの時間的先行は、異なるカメラセンサーによって異なる場合がある。
我々は、より良い合成結果を得るために、新しい光フロー改善戦略を考案する。
- 参考スコア(独自算出の注目度): 91.04877640089053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video frame interpolation, which aims to synthesize non-exist intermediate
frames in a video sequence, is an important research topic in computer vision.
Existing video frame interpolation methods have achieved remarkable results
under specific assumptions, such as instant or known exposure time. However, in
complicated real-world situations, the temporal priors of videos, i.e. frames
per second (FPS) and frame exposure time, may vary from different camera
sensors. When test videos are taken under different exposure settings from
training ones, the interpolated frames will suffer significant misalignment
problems. In this work, we solve the video frame interpolation problem in a
general situation, where input frames can be acquired under uncertain exposure
(and interval) time. Unlike previous methods that can only be applied to a
specific temporal prior, we derive a general curvilinear motion trajectory
formula from four consecutive sharp frames or two consecutive blurry frames
without temporal priors. Moreover, utilizing constraints within adjacent motion
trajectories, we devise a novel optical flow refinement strategy for better
interpolation results. Finally, experiments demonstrate that one well-trained
model is enough for synthesizing high-quality slow-motion videos under
complicated real-world situations. Codes are available on
https://github.com/yjzhang96/UTI-VFI.
- Abstract(参考訳): 映像列における非既存中間フレームの合成を目的とした映像フレーム補間は,コンピュータビジョンにおいて重要な研究課題である。
既存のビデオフレーム補間法は、即時や既知の露光時間といった特定の仮定の下で顕著な結果を得た。
しかし、複雑な現実世界では、フレーム毎秒(FPS)とフレーム露光時間といったビデオの時間的先行は、異なるカメラセンサーによって異なる場合がある。
テストビデオがトレーニングと異なる露光条件下で撮影されると、補間されたフレームは重大なミスアライメントに悩まされる。
本研究では,不確定な露光(及び間隔)時間内に入力フレームを取得できる一般的な状況下で,映像フレーム補間問題を解く。
特定の時間的先行にのみ適用できる従来の方法とは異なり、時間的先行を伴わない4つの連続したシャープフレームまたは2つの連続したぼやけたフレームから一般的な曲線運動軌道公式を導出する。
さらに, 隣接運動軌跡内の制約を利用して, 補間結果を改善するための新しい光流精細化戦略を考案する。
最後に実験では、訓練されたモデルが複雑な実環境下で高品質なスローモーションビデオを合成するのに十分であることを実証する。
コードはhttps://github.com/yjzhang96/UTI-VFIで入手できる。
関連論文リスト
- Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - E-VFIA : Event-Based Video Frame Interpolation with Attention [8.93294761619288]
軽量カーネルベース手法として,注目度の高いイベントベースビデオフレーム(E-VFIA)を提案する。
E-VFIAは、イベント情報を変形可能な畳み込みによって標準的なビデオフレームと融合し、高品質な補間フレームを生成する。
提案手法は、時間分解能の高いイベントを表現し、イベントベース情報をよりよくエンコードするためにマルチヘッド自己保持機構を使用する。
論文 参考訳(メタデータ) (2022-09-19T21:40:32Z) - TTVFI: Learning Trajectory-Aware Transformer for Video Frame
Interpolation [50.49396123016185]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを合成することを目的としている。
ビデオフレーム補間用トラジェクトリ対応トランス (TTVFI) を提案する。
提案手法は,4つの広く使用されているVFIベンチマークにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-19T03:37:49Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z) - ALANET: Adaptive Latent Attention Network forJoint Video Deblurring and
Interpolation [38.52446103418748]
シャープな高フレームレート映像を合成する新しいアーキテクチャであるAdaptive Latent Attention Network (ALANET)を導入する。
我々は,各フレームに最適化された表現を生成するために,潜在空間内の連続するフレーム間で自己アテンションと相互アテンションのモジュールを組み合わせる。
本手法は, より困難な問題に取り組みながら, 様々な最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2020-08-31T21:11:53Z) - Across Scales & Across Dimensions: Temporal Super-Resolution using Deep
Internal Learning [11.658606722158517]
我々は、低フレームの入力ビデオから直接抽出した例に基づいて、ビデオ固有のCNNを訓練する。
提案手法は,単一ビデオシーケンス内の小さな時空間パッチの強い再帰性を利用する。
ビデオフレームの高解像度化は、そのビデオの時間分解能を高めるための強力な例を提供する。
論文 参考訳(メタデータ) (2020-03-19T15:53:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。