論文の概要: ATCA: an Arc Trajectory Based Model with Curvature Attention for Video
Frame Interpolation
- arxiv url: http://arxiv.org/abs/2208.00856v1
- Date: Mon, 1 Aug 2022 13:42:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:06:23.131392
- Title: ATCA: an Arc Trajectory Based Model with Curvature Attention for Video
Frame Interpolation
- Title(参考訳): atca:ビデオフレーム補間のための曲率に着目したアーク軌道モデル
- Authors: Jinfeng Liu and Lingtong Kong and Jie Yang
- Abstract要約: 2つの連続するフレームよりも先に動きを学習し,軽量なアーク軌道モデル(ATCA)を提案する。
実験により,本手法はより少ないパラメータと高速な推論速度を持つ多くのSOTA法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 10.369068266836154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video frame interpolation is a classic and challenging low-level computer
vision task. Recently, deep learning based methods have achieved impressive
results, and it has been proven that optical flow based methods can synthesize
frames with higher quality. However, most flow-based methods assume a line
trajectory with a constant velocity between two input frames. Only a little
work enforces predictions with curvilinear trajectory, but this requires more
than two frames as input to estimate the acceleration, which takes more time
and memory to execute. To address this problem, we propose an arc trajectory
based model (ATCA), which learns motion prior from only two consecutive frames
and also is lightweight. Experiments show that our approach performs better
than many SOTA methods with fewer parameters and faster inference speed.
- Abstract(参考訳): ビデオフレーム補間は、古典的な低レベルのコンピュータビジョンタスクである。
近年,深層学習に基づく手法が目覚ましい成果を上げており,光学フローに基づく手法が高品質なフレームを合成できることが証明されている。
しかし、ほとんどのフローベース手法は、2つの入力フレーム間で一定の速度で直線軌道を仮定する。
ほんの少しの作業で曲線軌道で予測を強制するが、加速度を推定するためには入力として2フレーム以上を要し、実行にはより多くの時間とメモリを要する。
この問題に対処するために,2つの連続フレームのみから先行して動きを学習し,軽量なアーク軌道モデル(atca)を提案する。
実験により,本手法はより少ないパラメータと高速な推論速度を持つ多くのSOTA法よりも優れた性能を示した。
関連論文リスト
- TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - Streaming Radiance Fields for 3D Video Synthesis [32.856346090347174]
本稿では,実世界のダイナミックシーンの新たなビュー合成のための,ストリーミングレージアンス場再構築のための明示的グリッドベース手法を提案する。
挑戦的なビデオシーケンスの実験により、我々の手法は、フレーム当たり15秒のトレーニング速度を、競合的なレンダリング品質で達成できることが示されている。
論文 参考訳(メタデータ) (2022-10-26T16:23:02Z) - TTVFI: Learning Trajectory-Aware Transformer for Video Frame
Interpolation [50.49396123016185]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを合成することを目的としている。
ビデオフレーム補間用トラジェクトリ対応トランス (TTVFI) を提案する。
提案手法は,4つの広く使用されているVFIベンチマークにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-19T03:37:49Z) - Enhanced Bi-directional Motion Estimation for Video Frame Interpolation [0.05541644538483946]
本稿では,動画フレーム推定のための新しいアルゴリズムを提案する。
提案手法は,広い範囲の動画フレームベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-17T06:08:43Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z) - All at Once: Temporally Adaptive Multi-Frame Interpolation with Advanced
Motion Modeling [52.425236515695914]
最先端の手法は、一度に1つのフレームを補間する反復解である。
この研究は、真のマルチフレーム補間子を導入している。
時間領域のピラミッドスタイルのネットワークを使用して、複数フレームのタスクをワンショットで完了する。
論文 参考訳(メタデータ) (2020-07-23T02:34:39Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。