論文の概要: Reference-based Video Super-Resolution Using Multi-Camera Video Triplets
- arxiv url: http://arxiv.org/abs/2203.14537v1
- Date: Mon, 28 Mar 2022 07:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 15:32:42.919198
- Title: Reference-based Video Super-Resolution Using Multi-Camera Video Triplets
- Title(参考訳): マルチカメラビデオトリプレットを用いた参照ベースビデオ超解像
- Authors: Junyong Lee and Myeonghee Lee and Sunghyun Cho and Seungyong Lee
- Abstract要約: 本稿では,レファレンス・ビデオ・スーパーレゾリューション(RefVSR)手法を提案する。
広角・望遠映像を利用した低解像度超広角ビデオの超高解像度化を目指す。
- 参考スコア(独自算出の注目度): 21.802693154853085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the first reference-based video super-resolution (RefVSR) approach
that utilizes reference videos for high-fidelity results. We focus on RefVSR in
a triple-camera setting, where we aim at super-resolving a low-resolution
ultra-wide video utilizing wide-angle and telephoto videos. We introduce the
first RefVSR network that recurrently aligns and propagates temporal reference
features fused with features extracted from low-resolution frames. To
facilitate the fusion and propagation of temporal reference features, we
propose a propagative temporal fusion module. For learning and evaluation of
our network, we present the first RefVSR dataset consisting of triplets of
ultra-wide, wide-angle, and telephoto videos concurrently taken from triple
cameras of a smartphone. We also propose a two-stage training strategy fully
utilizing video triplets in the proposed dataset for real-world 4x video
super-resolution. We extensively evaluate our method, and the result shows the
state-of-the-art performance in 4x super-resolution.
- Abstract(参考訳): 本稿では,レファレンスビデオを用いた参照ベースビデオスーパーレゾリューション(RefVSR)手法を提案する。
広角・望遠ビデオを利用した低解像度の超広角ビデオの超高解像度化を目指す。
本稿では,低解像度フレームから抽出した特徴と融合した時間的参照特徴を繰り返し調整し,伝播する最初のRefVSRネットワークを提案する。
時間的参照特徴の融合と伝播を容易にするために,伝搬時間的融合モジュールを提案する。
ネットワークの学習と評価のために,スマートフォンのトリプルカメラから同時に撮影される,超広角,広角,望遠の3つからなる最初のRefVSRデータセットを提案する。
また、実世界の4xビデオ超解像のためのデータセットにおいて、ビデオ三重項を完全に活用する2段階のトレーニング戦略を提案する。
提案手法を広範に評価し, 4倍超解像における最先端性能を示す。
関連論文リスト
- Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - RefVSR++: Exploiting Reference Inputs for Reference-based Video
Super-resolution [29.52731707976695]
本稿では,2つの特徴を時間方向に並列に集約するRefVSR++を提案する。
実験により、RefVSR++はPSNRにおいて1dB以上でRefVSRを上回る性能を示し、新しい最先端を実現する。
論文 参考訳(メタデータ) (2023-07-06T10:09:52Z) - H2-Stereo: High-Speed, High-Resolution Stereoscopic Video System [39.95458608416292]
高分解能立体視(H2-Stereo)ビデオは、動的3Dコンテンツを微妙に知覚することができる。
既存の手法は、時間的または空間的な詳細を欠いた妥協された解決策を提供する。
本稿では,高解像度低フレームレート(HSR-LFR)映像を空間的詳細で撮影するデュアルカメラシステムを提案する。
そこで我々は,H2-Stereo ビデオの効率的な再構成にクロスカメラ冗長性を利用する学習情報融合ネットワーク (LIFnet) を考案した。
論文 参考訳(メタデータ) (2022-08-04T04:06:01Z) - Towards Interpretable Video Super-Resolution via Alternating
Optimization [115.85296325037565]
低フレームのぼかしビデオから高フレームの高解像度のシャープビデオを生成することを目的とした実時間ビデオ超解法(STVSR)問題について検討する。
本稿では,モデルベースと学習ベースの両方の手法を用いて,解釈可能なSTVSRフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-21T21:34:05Z) - HSTR-Net: High Spatio-Temporal Resolution Video Generation For Wide Area
Surveillance [4.125187280299246]
本稿では,HSTRビデオ生成における複数のビデオフィードの利用について述べる。
主な目的は、HSLFとLSHFビデオの融合によるHSTRビデオを作成することである。
論文 参考訳(メタデータ) (2022-04-09T09:23:58Z) - Dual-Camera Super-Resolution with Aligned Attention Modules [56.54073689003269]
デュアルカメラ・スーパーレゾリューション(DCSR)に着目したレファレンスベース・スーパーレゾリューション(RefSR)への新しいアプローチを提案する。
提案手法は,空間アライメント操作と標準パッチベースの特徴マッチングを一般化する。
実世界の画像とトレーニング画像の領域ギャップを埋めるために,自己監督型領域適応戦略を提案する。
論文 参考訳(メタデータ) (2021-09-03T07:17:31Z) - Zooming SlowMo: An Efficient One-Stage Framework for Space-Time Video
Super-Resolution [100.11355888909102]
時空ビデオ超解像度は低解像度(LR)と低フレームレート(LFR)ビデオシーケンスから高解像度(HR)スローモーションビデオを生成することを目的としている。
入力LRおよびLFRビデオから直接HRスローモーション映像シーケンスを再構成できる一段階の時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-15T17:59:23Z) - An Efficient Recurrent Adversarial Framework for Unsupervised Real-Time
Video Enhancement [132.60976158877608]
対比ビデオの例から直接学習する効率的な対比ビデオ強化フレームワークを提案する。
特に,空間的情報と時間的情報の暗黙的統合のための局所的モジュールとグローバルモジュールからなる新しい再帰的セルを導入する。
提案する設計では,フレーム間の情報伝達を効率的に行うことができ,複雑なネットワークの必要性を低減できる。
論文 参考訳(メタデータ) (2020-12-24T00:03:29Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。