論文の概要: Revisiting Adaptive Convolutions for Video Frame Interpolation
- arxiv url: http://arxiv.org/abs/2011.01280v1
- Date: Mon, 2 Nov 2020 19:52:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:22:33.808568
- Title: Revisiting Adaptive Convolutions for Video Frame Interpolation
- Title(参考訳): ビデオフレーム補間における適応畳み込みの再検討
- Authors: Simon Niklaus and Long Mai and Oliver Wang
- Abstract要約: 適応的な分離可能な畳み込みにより,最先端に近い結果が得られることを示す。
フレーム品質を改善するために,直感的だが効果的な手法をいくつか提案する。
- 参考スコア(独自算出の注目度): 44.49370524752525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video frame interpolation, the synthesis of novel views in time, is an
increasingly popular research direction with many new papers further advancing
the state of the art. But as each new method comes with a host of variables
that affect the interpolation quality, it can be hard to tell what is actually
important for this task. In this work, we show, somewhat surprisingly, that it
is possible to achieve near state-of-the-art results with an older, simpler
approach, namely adaptive separable convolutions, by a subtle set of low level
improvements. In doing so, we propose a number of intuitive but effective
techniques to improve the frame interpolation quality, which also have the
potential to other related applications of adaptive convolutions such as burst
image denoising, joint image filtering, or video prediction.
- Abstract(参考訳): ビデオフレーム補間(英語版)は、新しいビューを時間内に合成することであり、多くの新しい論文が芸術の状態を更に前進させ、ますます人気のある研究方向である。
しかし、各新しいメソッドには補間品質に影響する変数のホストがあるため、このタスクで実際に何が重要かを知るのは難しい。
本研究では, より古い, より単純なアプローチ, すなわち適応的分離可能な畳み込みを, 微妙な低レベル改善によって実現できることを, やや驚くべきことに示している。
そこで本稿では,フレーム補間品質を改善するための直感的だが効果的な手法を多数提案する。また,バースト画像の復調,ジョイント画像のフィルタリング,ビデオ予測など,他の適応的畳み込みの応用にも可能性を持っている。
関連論文リスト
- ViBiDSampler: Enhancing Video Interpolation Using Bidirectional Diffusion Sampler [53.98558445900626]
現在の画像とビデオの拡散モデルは、単一のフレームからビデオを生成するのに強力だが、2フレーム条件付き生成に適応する必要がある。
我々は,これらのオフマンド問題に対処するために,広範囲な再ノイズや微調整を必要とせずに,新しい双方向サンプリング戦略を導入する。
提案手法では,それぞれ開始フレームと終了フレームに条件付き前方経路と後方経路の両方に沿って逐次サンプリングを行い,中間フレームの整合性を確保した。
論文 参考訳(メタデータ) (2024-10-08T03:01:54Z) - Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation [93.18163456287164]
本稿では,動画に画像モデルを適用するための新しいテキスト誘導型動画翻訳フレームワークを提案する。
我々のフレームワークは,グローバルなスタイルと局所的なテクスチャの時間的一貫性を低コストで実現している。
論文 参考訳(メタデータ) (2023-06-13T17:52:23Z) - Video Frame Interpolation with Transformer [55.12620857638253]
本稿では,ビデオフレーム間の長距離画素相関をモデル化するためにTransformerを利用した新しいフレームワークを提案する。
我々のネットワークは、クロススケールウィンドウが相互に相互作用する新しいウィンドウベースのアテンション機構を備えている。
論文 参考訳(メタデータ) (2022-05-15T09:30:28Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - FineNet: Frame Interpolation and Enhancement for Face Video Deblurring [18.49184807837449]
この作品の目的は、顔のビデオを破壊することです。
本稿では,(1)ぼやけたフレームの強化,(2)ぼやけたフレームを欠落した値として扱い,目的によって見積もる方法を提案する。
3つの実および合成ビデオデータセットを用いた実験により,本手法が従来の最先端手法よりも定量的および質的結果において大きな差を示した。
論文 参考訳(メタデータ) (2021-03-01T09:47:16Z) - Adaptive Compact Attention For Few-shot Video-to-video Translation [13.535988102579918]
本稿では,複数の参照画像からコンテキスト特徴を効率的に抽出する適応型コンパクトアテンション機構を提案する。
我々の中心となる考え方は、すべての参照画像からより高レベルな表現としてコンパクトな基底集合を抽出することである。
提案手法を大規模トーキングヘッドビデオデータセットと人間のダンスデータセットで広範囲に評価した。
論文 参考訳(メタデータ) (2020-11-30T11:19:12Z) - ALANET: Adaptive Latent Attention Network forJoint Video Deblurring and
Interpolation [38.52446103418748]
シャープな高フレームレート映像を合成する新しいアーキテクチャであるAdaptive Latent Attention Network (ALANET)を導入する。
我々は,各フレームに最適化された表現を生成するために,潜在空間内の連続するフレーム間で自己アテンションと相互アテンションのモジュールを組み合わせる。
本手法は, より困難な問題に取り組みながら, 様々な最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2020-08-31T21:11:53Z) - Scene-Adaptive Video Frame Interpolation via Meta-Learning [54.87696619177496]
テスト時に容易に利用できる追加情報を利用することで、各ビデオにモデルを適用することを提案する。
追加パラメータを使わずに1つの勾配更新しか行わず、大幅な性能向上が得られます。
論文 参考訳(メタデータ) (2020-04-02T02:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。