論文の概要: Deep Space-Time Video Upsampling Networks
- arxiv url: http://arxiv.org/abs/2004.02432v2
- Date: Mon, 10 Aug 2020 02:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:54:31.627143
- Title: Deep Space-Time Video Upsampling Networks
- Title(参考訳): 深宇宙時間映像アップサンプリングネットワーク
- Authors: Jaeyeon Kang, Younghyun Jo, Seoung Wug Oh, Peter Vajda, and Seon Joo
Kim
- Abstract要約: ビデオ超解像(VSR)とフレーム(FI)は伝統的なコンピュータビジョンの問題である。
本稿では, VSR と FI を効率よく融合して, 時空ビデオアップサンプリングを行うためのエンドツーエンドフレームワークを提案する。
その結果, 時間(x7速)とパラメータ数(30%)を基準線と比較し, 定量的, 質的にも良好な結果が得られた。
- 参考スコア(独自算出の注目度): 47.62807427163614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video super-resolution (VSR) and frame interpolation (FI) are traditional
computer vision problems, and the performance have been improving by
incorporating deep learning recently. In this paper, we investigate the problem
of jointly upsampling videos both in space and time, which is becoming more
important with advances in display systems. One solution for this is to run VSR
and FI, one by one, independently. This is highly inefficient as heavy deep
neural networks (DNN) are involved in each solution. To this end, we propose an
end-to-end DNN framework for the space-time video upsampling by efficiently
merging VSR and FI into a joint framework. In our framework, a novel weighting
scheme is proposed to fuse input frames effectively without explicit motion
compensation for efficient processing of videos. The results show better
results both quantitatively and qualitatively, while reducing the computation
time (x7 faster) and the number of parameters (30%) compared to baselines.
- Abstract(参考訳): ビデオ超解像(VSR)とフレーム補間(FI)は従来のコンピュータビジョンの問題であり,近年,深層学習を取り入れた性能の向上が進んでいる。
本稿では,表示システムの進歩に伴い,映像を空間的に,時間的に,共同でアップサンプリングすることの課題について検討する。
これに対する解決策の1つは、独立してVSRとFIを実行することである。
これは、ディープニューラルネットワーク(DNN)がそれぞれのソリューションに関与しているため、非常に非効率である。
そこで本稿では,VSRとFIを効率よく融合して,時空ビデオアップサンプリングを行うためのエンドツーエンドDNNフレームワークを提案する。
提案手法では,映像の効率的な処理のために,明示的な動作補償を伴わずに入力フレームを効果的に融合する新しい重み付け方式を提案する。
その結果, 計算時間(x7倍)とパラメータ数(30%)をベースラインと比較し, 定量的, 質的にも良好な結果を示した。
関連論文リスト
- Data Overfitting for On-Device Super-Resolution with Dynamic Algorithm and Compiler Co-Design [18.57172631588624]
本稿では,Content-Awareデータ処理パイプラインが支援する動的ディープニューラルネットワークを提案する。
本手法は,市販携帯電話上でのPSNRとリアルタイム性能(33FPS)の向上を実現する。
論文 参考訳(メタデータ) (2024-07-03T05:17:26Z) - Deep Unsupervised Key Frame Extraction for Efficient Video
Classification [63.25852915237032]
本研究は、畳み込みニューラルネットワーク(CNN)と時間セグメント密度ピーククラスタリング(TSDPC)を組み合わせたキーフレームの検索方法を提案する。
提案した TSDPC は汎用的で強力なフレームワークであり,従来の研究に比べて2つの利点がある。
さらに、CNNの上部にLong Short-Term Memory Network (LSTM)を追加し、分類性能をさらに高める。
論文 参考訳(メタデータ) (2022-11-12T20:45:35Z) - A Codec Information Assisted Framework for Efficient Compressed Video
Super-Resolution [15.690562510147766]
リカレントニューラルネットワークアーキテクチャを用いたビデオ超解法(VSR)は、長距離時間依存性の効率的なモデリングのため、有望なソリューションである。
圧縮ビデオの繰り返しVSRモデルの高速化と高速化を目的としたコーデック情報支援フレームワーク(CIAF)を提案する。
論文 参考訳(メタデータ) (2022-10-15T08:48:29Z) - Sliding Window Recurrent Network for Efficient Video Super-Resolution [0.0]
ビデオ超解像(VSR)は、高解像度のフレームを低解像度の入力列から復元するタスクである。
本研究では,テキストスライディングウィンドウをベースとしたリカレントネットワーク(SWRN)を提案する。
筆者らはREDSデータセットを用いて,提案手法をモバイルデバイスに適用し,視覚的に快適な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-08-24T15:23:44Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - Fast Online Video Super-Resolution with Deformable Attention Pyramid [172.16491820970646]
ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
変形性アテンションピラミッド(DAP)に基づく繰り返しVSRアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-02-03T17:49:04Z) - Real-Time Super-Resolution System of 4K-Video Based on Deep Learning [6.182364004551161]
ビデオレゾリューション(VSR)技術は低品質のビデオ計算において優れており、職業ベースのアルゴリズムによって生じる不快なブラー効果を回避している。
本稿では、リアルタイムVSシステムの可能性について検討し、EGVSRと呼ばれる効率的な汎用VSRネットワークを設計する。
現在最も先進的なVSRネットワークであるTecoGANと比較して、密度の84%削減と7.92倍の性能向上を実現している。
論文 参考訳(メタデータ) (2021-07-12T10:35:05Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。