論文の概要: VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution
- arxiv url: http://arxiv.org/abs/2206.04647v1
- Date: Thu, 9 Jun 2022 17:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 14:11:19.044624
- Title: VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution
- Title(参考訳): VideoINR: 連続空間時間超解のためのビデオインプシットニューラル表現学習
- Authors: Zeyuan Chen, Yinbo Chen, Jingwen Liu, Xingqian Xu, Vidit Goel,
Zhangyang Wang, Humphrey Shi, Xiaolong Wang
- Abstract要約: ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 75.79379734567604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Videos typically record the streaming and continuous visual data as discrete
consecutive frames. Since the storage cost is expensive for videos of high
fidelity, most of them are stored in a relatively low resolution and frame
rate. Recent works of Space-Time Video Super-Resolution (STVSR) are developed
to incorporate temporal interpolation and spatial super-resolution in a unified
framework. However, most of them only support a fixed up-sampling scale, which
limits their flexibility and applications. In this work, instead of following
the discrete representations, we propose Video Implicit Neural Representation
(VideoINR), and we show its applications for STVSR. The learned implicit neural
representation can be decoded to videos of arbitrary spatial resolution and
frame rate. We show that VideoINR achieves competitive performances with
state-of-the-art STVSR methods on common up-sampling scales and significantly
outperforms prior works on continuous and out-of-training-distribution scales.
Our project page is at http://zeyuan-chen.com/VideoINR/ .
- Abstract(参考訳): ビデオは通常、ストリーミングと連続したビジュアルデータを離散的な連続フレームとして記録する。
高い忠実度を持つビデオにはストレージコストがかかるため、そのほとんどが比較的低い解像度とフレームレートで保存される。
時間的補間と空間的超解像を一体化したstvsr (time-time video super- resolution) を開発した。
しかし、そのほとんどは、その柔軟性とアプリケーションを制限する固定されたアップサンプリングスケールしかサポートしていない。
本研究では、離散表現に従う代わりに、ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)を提案し、そのSTVSRへの応用を示す。
学習した暗黙の神経表現は、任意の空間解像度とフレームレートのビデオに復号することができる。
ビデオINRは,既存のSTVSR手法と共通のアップサンプリングスケールで競合する性能を達成し,従来の連続およびアウトオブトレーニング・ディストリビューションスケールよりも優れていた。
プロジェクトページはhttp://zeyuan-chen.com/VideoINR/。
関連論文リスト
- HR-INR: Continuous Space-Time Video Super-Resolution via Event Camera [22.208120663778043]
連続時空超解像(C-STVSR)は、任意のスケールで解像度とフレームレートを同時に向上することを目的としている。
我々は、暗黙的神経表現(INR)に基づいて、全体依存と局所運動の両方をキャプチャするHR-INRと呼ばれる新しいC-STVSRフレームワークを提案する。
次に、時間的埋め込みを持つ新しいINRベースのデコーダを提案し、時間的知覚場を大きくすることで、長期的依存関係をキャプチャする。
論文 参考訳(メタデータ) (2024-05-22T06:51:32Z) - A Codec Information Assisted Framework for Efficient Compressed Video
Super-Resolution [15.690562510147766]
リカレントニューラルネットワークアーキテクチャを用いたビデオ超解法(VSR)は、長距離時間依存性の効率的なモデリングのため、有望なソリューションである。
圧縮ビデオの繰り返しVSRモデルの高速化と高速化を目的としたコーデック情報支援フレームワーク(CIAF)を提案する。
論文 参考訳(メタデータ) (2022-10-15T08:48:29Z) - Sliding Window Recurrent Network for Efficient Video Super-Resolution [0.0]
ビデオ超解像(VSR)は、高解像度のフレームを低解像度の入力列から復元するタスクである。
本研究では,テキストスライディングウィンドウをベースとしたリカレントネットワーク(SWRN)を提案する。
筆者らはREDSデータセットを用いて,提案手法をモバイルデバイスに適用し,視覚的に快適な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-08-24T15:23:44Z) - Towards Interpretable Video Super-Resolution via Alternating
Optimization [115.85296325037565]
低フレームのぼかしビデオから高フレームの高解像度のシャープビデオを生成することを目的とした実時間ビデオ超解法(STVSR)問題について検討する。
本稿では,モデルベースと学習ベースの両方の手法を用いて,解釈可能なSTVSRフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-21T21:34:05Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - Memory-Augmented Non-Local Attention for Video Super-Resolution [61.55700315062226]
低解像度(LR)ビデオから高忠実度高解像度(HR)ビデオを生成するための新しいビデオ超解法を提案する。
従来の方法は、主に時間的隣のフレームを利用して、現在のフレームの超解像を支援する。
対照的に、フレームアライメントなしでビデオの超解像を可能にするクロスフレーム非局所アテンション機構を考案する。
論文 参考訳(メタデータ) (2021-08-25T05:12:14Z) - Zooming SlowMo: An Efficient One-Stage Framework for Space-Time Video
Super-Resolution [100.11355888909102]
時空ビデオ超解像度は低解像度(LR)と低フレームレート(LFR)ビデオシーケンスから高解像度(HR)スローモーションビデオを生成することを目的としている。
入力LRおよびLFRビデオから直接HRスローモーション映像シーケンスを再構成できる一段階の時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-15T17:59:23Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。