論文の概要: End-To-End Trainable Video Super-Resolution Based on a New Mechanism for
Implicit Motion Estimation and Compensation
- arxiv url: http://arxiv.org/abs/2001.01162v1
- Date: Sun, 5 Jan 2020 03:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 08:03:19.387098
- Title: End-To-End Trainable Video Super-Resolution Based on a New Mechanism for
Implicit Motion Estimation and Compensation
- Title(参考訳): 入射運動推定と補償の新しいメカニズムに基づく訓練用超解像のエンド・ツー・エンド化
- Authors: Xiaohong Liu, Lingshi Kong, Yang Zhou, Jiying Zhao, Jun Chen
- Abstract要約: ビデオの超解像度は、低解像度のビデオから高解像度のビデオを生成することを目指している。
本研究では,暗黙の動作推定と補償を行うための動的局所フィルタネットワークを提案する。
また,ResBlockとオートエンコーダ構造に基づくグローバルリファインメントネットワークを提案する。
- 参考スコア(独自算出の注目度): 19.67999205691758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video super-resolution aims at generating a high-resolution video from its
low-resolution counterpart. With the rapid rise of deep learning, many recently
proposed video super-resolution methods use convolutional neural networks in
conjunction with explicit motion compensation to capitalize on statistical
dependencies within and across low-resolution frames. Two common issues of such
methods are noteworthy. Firstly, the quality of the final reconstructed HR
video is often very sensitive to the accuracy of motion estimation. Secondly,
the warp grid needed for motion compensation, which is specified by the two
flow maps delineating pixel displacements in horizontal and vertical
directions, tends to introduce additional errors and jeopardize the temporal
consistency across video frames. To address these issues, we propose a novel
dynamic local filter network to perform implicit motion estimation and
compensation by employing, via locally connected layers, sample-specific and
position-specific dynamic local filters that are tailored to the target pixels.
We also propose a global refinement network based on ResBlock and autoencoder
structures to exploit non-local correlations and enhance the spatial
consistency of super-resolved frames. The experimental results demonstrate that
the proposed method outperforms the state-of-the-art, and validate its strength
in terms of local transformation handling, temporal consistency as well as edge
sharpness.
- Abstract(参考訳): video super- resolutionは、低解像度ビデオから高解像度ビデオを生成することを目指している。
ディープラーニングの急速な普及に伴い、最近提案された多くのビデオスーパーレゾリューション手法では、畳み込みニューラルネットワークと明示的な動き補償を併用して、低解像度フレーム内およびフレーム間の統計的依存関係を活用している。
このような方法の一般的な問題は2つある。
第一に、再構成されたHRビデオの品質は、しばしば運動推定の精度に非常に敏感である。
第2に、水平方向と垂直方向の画素変位を線分する2つのフローマップによって規定される動き補償に必要なワープグリッドは、追加エラーを導入し、ビデオフレーム間の時間的一貫性を損なう傾向にある。
そこで本研究では,局所結合層,試料特異的および位置特異的な動的局所フィルタを用いて,対象画素に合わせた暗黙的動き推定と補償を行う新しい動的局所フィルタネットワークを提案する。
また,ResBlockとオートエンコーダ構造に基づくグローバルリファインメントネットワークを提案し,非局所的相関を利用して超解像フレームの空間的整合性を高める。
実験結果から,提案手法は局部変換処理,時間的整合性,エッジシャープネスの両面において,最先端技術よりも優れた性能を示し,その強度を検証した。
関連論文リスト
- Spatio-Temporal Distortion Aware Omnidirectional Video Super-Resolution [26.166579083377556]
ビデオの解像度を高めるためにビデオ超解像法 (VSR) が提案されているが, ODVの投影歪みは直接的にこのような手法を適用できない。
超高解像度再構成品質を実現するために,新しい時空間歪み認識ネットワーク(STDAN)を提案する。
論文 参考訳(メタデータ) (2024-10-15T11:17:19Z) - Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - Differentiable Resolution Compression and Alignment for Efficient Video
Classification and Retrieval [16.497758750494537]
本稿では,高解像度圧縮・アライメント機構を備えた効率的な映像表現ネットワークを提案する。
我々は、相性および非相性フレーム特徴を符号化するために、微分可能なコンテキスト対応圧縮モジュールを利用する。
我々は,異なる解像度のフレーム特徴間のグローバル時間相関を捉えるために,新しい解像度変換器層を導入する。
論文 参考訳(メタデータ) (2023-09-15T05:31:53Z) - Towards Interpretable Video Super-Resolution via Alternating
Optimization [115.85296325037565]
低フレームのぼかしビデオから高フレームの高解像度のシャープビデオを生成することを目的とした実時間ビデオ超解法(STVSR)問題について検討する。
本稿では,モデルベースと学習ベースの両方の手法を用いて,解釈可能なSTVSRフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-21T21:34:05Z) - Fractional Motion Estimation for Point Cloud Compression [34.6429671080134]
運動補償は高分解能基準と分数精度で得られる高精度な変位の恩恵を受けることができることを示す。
提案手法は、領域適応グラフフーリエ変換や領域適応ハール変換などの変換を使用する最先端システムに、大きなゲインを加えることができる。
論文 参考訳(メタデータ) (2022-02-01T01:00:28Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。