論文の概要: Information Prebuilt Recurrent Reconstruction Network for Video
Super-Resolution
- arxiv url: http://arxiv.org/abs/2112.05755v1
- Date: Fri, 10 Dec 2021 05:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 18:17:55.466105
- Title: Information Prebuilt Recurrent Reconstruction Network for Video
Super-Resolution
- Title(参考訳): ビデオスーパーリゾリューションのためのリカレントリコンストラクションネットワークの構築
- Authors: Ming Yu, Shuyun Wang, Cuihong Xue, Yingchun Guo, Gang Yan
- Abstract要約: 一方向のリカレント畳み込みネットワークにおいて、異なるリカレントユニットから受信された入力情報がアンバランスされる。
初期の再構築フレームは時間的な情報が少なくなり、ファジィやアーティファクトの結果をもたらす。
本稿では,情報プリビルドネットワーク(IPNet)とリカレントリカレント・リカレント・リカレント・ネットワーク(RRNet)からなる,エンド・ツー・エンドのインフォメーション・リカレント・リカレント・リカレント・リカレント・リカレント・ネットワーク(IPRRN)を提案する。
- 参考スコア(独自算出の注目度): 8.587681982540225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The video super-resolution (VSR) method based on the recurrent convolutional
network has strong temporal modeling capability for video sequences. However,
the input information received by different recurrent units in the
unidirectional recurrent convolutional network is unbalanced. Early
reconstruction frames receive less temporal information, resulting in fuzzy or
artifact results. Although the bidirectional recurrent convolution network can
alleviate this problem, it greatly increases reconstruction time and
computational complexity. It is also not suitable for many application
scenarios, such as online super-resolution. To solve the above problems, we
propose an end-to-end information prebuilt recurrent reconstruction network
(IPRRN), consisting of an information prebuilt network (IPNet) and a recurrent
reconstruction network (RRNet). By integrating sufficient information from the
front of the video to build the hidden state needed for the initially recurrent
unit to help restore the earlier frames, the information prebuilt network
balances the input information difference before and after without backward
propagation. In addition, we demonstrate a compact recurrent reconstruction
network, which has significant improvements in recovery quality and time
efficiency. Many experiments have verified the effectiveness of our proposed
network, and compared with the existing state-of-the-art methods, our method
can effectively achieve higher quantitative and qualitative evaluation
performance.
- Abstract(参考訳): 再帰的畳み込みネットワークに基づくビデオ超解像(VSR)法は,映像系列に対して強い時間的モデリング能力を有する。
しかし、一方向のリカレント畳み込みネットワークにおいて異なるリカレントユニットが受信した入力情報は不均衡である。
初期の再構築フレームは時間的な情報が少なくなり、ファジィや成果物となる。
双方向リカレント畳み込みネットワークはこの問題を軽減することができるが、再構成時間と計算複雑性を大幅に向上させる。
オンライン超解像など、多くのアプリケーションシナリオにも適していない。
そこで本研究では,ipnet (information prebuilt network) とrrnet (recurrent reconstruction network) からなるエンド・ツー・エンドのリカレント・リコンストラクション・ネットワーク (iprrn) を提案する。
映像の前面から十分な情報を統合して、初期再帰ユニットに必要な隠れ状態を構築し、初期フレームの復元を支援することにより、事前構築されたネットワークは、前後の伝播なしに入力情報差をバランスさせる。
さらに,回復の質と時間効率を大幅に向上させるコンパクトなリカレント再構成ネットワークを実証した。
提案手法は,提案ネットワークの有効性を検証し,既存の最先端手法と比較し,定量的・質的評価性能を効果的に達成できる。
関連論文リスト
- Cascaded Temporal Updating Network for Efficient Video Super-Resolution [47.63267159007611]
リカレントベースのVSRネットワークにおけるキーコンポーネントはモデル効率に大きな影響を及ぼす。
本稿では,効率的なVSRのための時空間更新ネットワーク(CTUN)を提案する。
CTUNは,従来の方法に比べて効率と性能のトレードオフが良好である。
論文 参考訳(メタデータ) (2024-08-26T12:59:32Z) - Collaborative Feedback Discriminative Propagation for Video Super-Resolution [66.61201445650323]
ビデオ超解像法(VSR)の主な成功は、主に空間情報と時間情報を探索することに由来する。
不正確なアライメントは通常、重要なアーティファクトを備えたアライメント機能につながる。
伝搬モジュールは同じタイムステップ機能のみを前方または後方に伝播する。
論文 参考訳(メタデータ) (2024-04-06T22:08:20Z) - Enhanced Event-Based Video Reconstruction with Motion Compensation [26.03328887451797]
本稿では,入力強度フレームとスパース符号の歪みを補正し,再現性を向上させることを提案する。
CISTA-Flowネットワークは、動き補償のためのフローネットワークとCISTA-LSTCを統合することで構築される。
以上の結果から,本手法は最先端の復元精度を達成し,信頼性の高い高密度流れ推定を同時に提供することを示す。
論文 参考訳(メタデータ) (2024-03-18T16:58:23Z) - A Lightweight Recurrent Learning Network for Sustainable Compressed
Sensing [27.964167481909588]
持続可能なCSシステムを実現するために,繰り返し学習に基づく軽量だが効果的な深層ニューラルネットワークを提案する。
提案手法は,既存のCSアルゴリズムよりも再現性が高い。
論文 参考訳(メタデータ) (2023-04-23T14:54:15Z) - Sliding Window Recurrent Network for Efficient Video Super-Resolution [0.0]
ビデオ超解像(VSR)は、高解像度のフレームを低解像度の入力列から復元するタスクである。
本研究では,テキストスライディングウィンドウをベースとしたリカレントネットワーク(SWRN)を提案する。
筆者らはREDSデータセットを用いて,提案手法をモバイルデバイスに適用し,視覚的に快適な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-08-24T15:23:44Z) - Structured Sparsity Learning for Efficient Video Super-Resolution [99.1632164448236]
我々は、ビデオ超解像(VSR)モデルの特性に応じて、構造化スパシティ学習(SSL)と呼ばれる構造化プルーニング手法を開発する。
SSLでは,残差ブロック,リカレントネットワーク,アップサンプリングネットワークなど,VSRモデルのいくつかの重要なコンポーネントに対するプルーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-06-15T17:36:04Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - iSeeBetter: Spatio-temporal video super-resolution using recurrent
generative back-projection networks [0.0]
ビデオ超解像(VSR)に対する新しいGANに基づく構造時間的アプローチiSeeBetterを提案する。
iSeeBetterは、リカレントバックプロジェクションネットワークをジェネレータとして使用して、現在のフレームと隣接するフレームから時空間情報を抽出する。
以上の結果から,iSeeBetterはVSRの忠実度に優れ,最先端の性能に勝ることを示した。
論文 参考訳(メタデータ) (2020-06-13T01:36:30Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。