論文の概要: EA-Net: Edge-Aware Network for Flow-based Video Frame Interpolation
- arxiv url: http://arxiv.org/abs/2105.07673v1
- Date: Mon, 17 May 2021 08:44:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:43:17.110032
- Title: EA-Net: Edge-Aware Network for Flow-based Video Frame Interpolation
- Title(参考訳): EA-Net:フローベースのビデオフレーム補間のためのエッジ対応ネットワーク
- Authors: Bin Zhao and Xuelong Li
- Abstract要約: 補間フレーム内のエッジを保存することにより,画像のぼかしを低減し,オブジェクトの明確な形状を得る。
提案するエッジアウェアネットワーク(eanet)は、エッジ情報をフレームタスクに統合する。
フローマップの推定において,フレームエッジを強調する3つのエッジアウェア機構が開発されている。
- 参考スコア(独自算出の注目度): 101.75999290175412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video frame interpolation can up-convert the frame rate and enhance the video
quality. In recent years, although the interpolation performance has achieved
great success, image blur usually occurs at the object boundaries owing to the
large motion. It has been a long-standing problem, and has not been addressed
yet. In this paper, we propose to reduce the image blur and get the clear shape
of objects by preserving the edges in the interpolated frames. To this end, the
proposed Edge-Aware Network (EA-Net) integrates the edge information into the
frame interpolation task. It follows an end-to-end architecture and can be
separated into two stages, \emph{i.e.}, edge-guided flow estimation and
edge-protected frame synthesis. Specifically, in the flow estimation stage,
three edge-aware mechanisms are developed to emphasize the frame edges in
estimating flow maps, so that the edge-maps are taken as the auxiliary
information to provide more guidance to boost the flow accuracy. In the frame
synthesis stage, the flow refinement module is designed to refine the flow map,
and the attention module is carried out to adaptively focus on the
bidirectional flow maps when synthesizing the intermediate frames. Furthermore,
the frame and edge discriminators are adopted to conduct the adversarial
training strategy, so as to enhance the reality and clarity of synthesized
frames. Experiments on three benchmarks, including Vimeo90k, UCF101 for
single-frame interpolation and Adobe240-fps for multi-frame interpolation, have
demonstrated the superiority of the proposed EA-Net for the video frame
interpolation task.
- Abstract(参考訳): フレーム補間はフレームレートをアップコンバートし、ビデオ品質を向上させる。
近年、補間性能は大きな成功を収めているが、画像のぼかしは通常、大きな動きのために物体の境界で発生する。
それは長年の問題であり、まだ解決されていない。
本稿では,補間フレームのエッジを保存し,画像のぼやけを低減し,オブジェクトの明瞭な形状を得ることを提案する。
この目的のために、提案するエッジアウェアネットワーク(ea-net)は、エッジ情報をフレーム補間タスクに統合する。
エンドツーエンドアーキテクチャに従い、2つのステージ、すなわち \emph{i.e. に分けられる。
エッジ誘導フロー推定とエッジ保護フレーム合成。
具体的には、フロー推定段階において、フローマップ推定においてフレームエッジを強調する3つのエッジアウェア機構を開発し、エッジマップを補助情報として、フロー精度を高めるためのガイダンスを提供する。
フレーム合成段階において、フローリファインメントモジュールはフローマップを洗練するように設計され、中間フレームを合成する際に、アテンションモジュールは双方向フローマップに適応的にフォーカスする。
さらに、フレームとエッジ判別器を用いて、合成フレームの現実性と明快性を高めるために、逆訓練戦略を実施する。
Vimeo90k、UCF101、Adobe240-fps、マルチフレーム補間という3つのベンチマーク実験は、ビデオフレーム補間タスクにおいて提案されたEA-Netの優位性を実証している。
関連論文リスト
- Event-based Video Frame Interpolation with Edge Guided Motion Refinement [28.331148083668857]
本稿では,イベント信号のエッジ特徴を効果的に活用するためのエンドツーエンドE-VFI学習手法を提案する。
提案手法にはエッジガイド・アテンテーティブ(EGA)モジュールが組み込まれており,アテンテーティブアグリゲーションによって推定された映像の動きを補正する。
合成データと実データの両方を用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-04-28T12:13:34Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Meta-Interpolation: Time-Arbitrary Frame Interpolation via Dual
Meta-Learning [65.85319901760478]
我々はメタ学習の助けを借りて、適応的に生成された畳み込みカーネルで異なる時間ステップを統一的に処理することを検討する。
我々は、コンテキスト情報と光フローのガイダンスを用いて、中間フレームを合成するデュアルメタ学習フレームフレームワークを開発した。
論文 参考訳(メタデータ) (2022-07-27T17:36:23Z) - TTVFI: Learning Trajectory-Aware Transformer for Video Frame
Interpolation [50.49396123016185]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを合成することを目的としている。
ビデオフレーム補間用トラジェクトリ対応トランス (TTVFI) を提案する。
提案手法は,4つの広く使用されているVFIベンチマークにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-19T03:37:49Z) - Cross-Attention Transformer for Video Interpolation [3.5317804902980527]
TAIN (Transformers and Attention for video Interpolation) は、2つの連続した画像フレームが配置された中間フレームを補間することを目的としている。
最初に、予測フレームと類似した外観の入力画像特徴をグローバルに集約するために、CS(Cross-Similarity)と呼ばれる新しいビジュアルトランスフォーマーモジュールを提示する。
CS特徴の排他性を考慮し,一方のフレームから他方のフレーム上のCS特徴に焦点を合わせるためのイメージアテンション(IA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-08T21:38:54Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z) - ALANET: Adaptive Latent Attention Network forJoint Video Deblurring and
Interpolation [38.52446103418748]
シャープな高フレームレート映像を合成する新しいアーキテクチャであるAdaptive Latent Attention Network (ALANET)を導入する。
我々は,各フレームに最適化された表現を生成するために,潜在空間内の連続するフレーム間で自己アテンションと相互アテンションのモジュールを組み合わせる。
本手法は, より困難な問題に取り組みながら, 様々な最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2020-08-31T21:11:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。