論文の概要: RefVSR++: Exploiting Reference Inputs for Reference-based Video Super-resolution
- arxiv url: http://arxiv.org/abs/2307.02897v2
- Date: Mon, 30 Jun 2025 02:12:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.278461
- Title: RefVSR++: Exploiting Reference Inputs for Reference-based Video Super-resolution
- Title(参考訳): RefVSR++: 参照ベースのビデオ超解像のための参照入力の爆発
- Authors: Han Zou, Masanori Suganuma, Takayuki Okatani,
- Abstract要約: ビデオ超解像(VSR)への革新的アプローチを提案する。
この方法は、高解像度参照(Ref)ビデオを活用することにより、低解像度(LR)ビデオのVSR性能を向上させる。
本稿では,LRとRef画像の時間方向の並列アグリゲーションを行うRefVSR++の改良手法を提案する。
- 参考スコア(独自算出の注目度): 24.28807025839685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smartphones with multi-camera systems, featuring cameras with varying field-of-views (FoVs), are increasingly common. This variation in FoVs results in content differences across videos, paving the way for an innovative approach to video super-resolution (VSR). This method enhances the VSR performance of lower resolution (LR) videos by leveraging higher resolution reference (Ref) videos. Previous works, which operate on this principle, generally expand on traditional VSR models by combining LR and Ref inputs over time into a unified stream. However, we can expect that better results are obtained by independently aggregating these Ref image sequences temporally. Therefore, we introduce an improved method, RefVSR++, which performs the parallel aggregation of LR and Ref images in the temporal direction, aiming to optimize the use of the available data. RefVSR++ also incorporates improved mechanisms for aligning image features over time, crucial for effective VSR. Our experiments demonstrate that RefVSR++ outperforms previous works by over 1dB in PSNR, setting a new benchmark in the field.
- Abstract(参考訳): 様々な視野(FoV)のカメラを備えたマルチカメラシステムを備えたスマートフォンは、ますます一般的になっている。
このFoVの変化は、ビデオ間でのコンテンツの違いをもたらし、ビデオ超解像(VSR)に対する革新的なアプローチの道を開く。
この方法は、高解像度参照(Ref)ビデオを活用することにより、低解像度(LR)ビデオのVSR性能を向上させる。
この原理で動作する以前の作品では、LRとRefの入力を時間をかけて統一ストリームに組み合わせることで、従来のVSRモデルに拡張するのが一般的である。
しかし、これらのRef画像列を時間的に独立に集約することで、より良い結果が得られると期待できる。
そこで本稿では,LRとRefの画像を時間方向に並列に集約するRefVSR++を提案する。
RefVSR++はまた、画像特徴を時間とともに整列させる改善されたメカニズムも組み込まれており、効率的なVSRには不可欠である。
実験の結果、PSNRの1dB以上の性能はRefVSR++よりも優れており、この分野に新たなベンチマークが設定されていることがわかった。
関連論文リスト
- Self-Supervised Learning for Real-World Super-Resolution from Dual and Multiple Zoomed Observations [61.448005005426666]
スマートフォン用レファレンスベーススーパーレゾリューション(RefSR)における2つの課題について考察する。
本稿では,デュアルカメラとマルチカメラのズームで観測した実世界のRefSRに対して,新たな自己教師型学習手法を提案する。
論文 参考訳(メタデータ) (2024-05-03T15:20:30Z) - KeDuSR: Real-World Dual-Lens Super-Resolution via Kernel-Free Matching [16.716593426301312]
デュアルレンズ超解像(英: Dual-lens Super- resolution, SR)は、低解像度広角画像(LR入力)の超解像を支援するために望遠画像(Ref)を利用する、参照(Ref)ベースのSRの実践シナリオである。
本稿では、LRコーナ(クエリ)とLR中心(キー)領域のマッチングによるカーネルフリーマッチング戦略を提案し、対応するRef(値)をターゲットのコーナー領域にワープする。
我々のカーネルフリーマッチング戦略は、LRとRefの解像度ギャップを回避し、ネットワークの一般化能力を向上する。
論文 参考訳(メタデータ) (2023-12-28T14:51:45Z) - RRSR:Reciprocal Reference-based Image Super-Resolution with Progressive
Feature Alignment and Selection [66.08293086254851]
本稿では,RefSRネットワークの学習を強化するための相互学習フレームワークを提案する。
新たに提案したモジュールは,マルチスケールの特徴空間に参照入力画像をアライメントし,参照認識機能の選択を行う。
我々は,最近のRefSRモデルが相互学習パラダイムによって一貫した改善が可能であることを実証的に示す。
論文 参考訳(メタデータ) (2022-11-08T12:39:35Z) - RZSR: Reference-based Zero-Shot Super-Resolution with Depth Guided
Self-Exemplars [20.771851470271777]
低分解能(LR)画像から高分解能(HR)画像を生成する上で,SISRは優れた性能を示した。
参照ベースゼロショットSR(RZSR)と呼ばれる統合解を提案する。
論文 参考訳(メタデータ) (2022-08-24T05:48:17Z) - Reference-based Image Super-Resolution with Deformable Attention
Transformer [62.71769634254654]
RefSRは、補助参照(Ref)画像を超解像低解像度(LR)画像に活用することを目的としている。
本稿では,複数のスケールを持つ変形可能なアテンション変換器,すなわちDATSRを提案する。
DATSRがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-07-25T07:07:00Z) - Reference-based Video Super-Resolution Using Multi-Camera Video Triplets [21.802693154853085]
本稿では,レファレンス・ビデオ・スーパーレゾリューション(RefVSR)手法を提案する。
広角・望遠映像を利用した低解像度超広角ビデオの超高解像度化を目指す。
論文 参考訳(メタデータ) (2022-03-28T07:27:36Z) - MASA-SR: Matching Acceleration and Spatial Adaptation for
Reference-Based Image Super-Resolution [74.24676600271253]
本稿では、RefSRのためのMASAネットワークを提案し、これらの問題に対処するために2つの新しいモジュールを設計する。
提案したMatch & extract Moduleは、粗大な対応マッチング方式により計算コストを大幅に削減する。
空間適応モジュールは、LR画像とRef画像の分布の差を学習し、Ref特徴の分布を空間適応的にLR特徴の分布に再マップする。
論文 参考訳(メタデータ) (2021-06-04T07:15:32Z) - Zooming SlowMo: An Efficient One-Stage Framework for Space-Time Video
Super-Resolution [100.11355888909102]
時空ビデオ超解像度は低解像度(LR)と低フレームレート(LFR)ビデオシーケンスから高解像度(HR)スローモーションビデオを生成することを目的としている。
入力LRおよびLFRビデオから直接HRスローモーション映像シーケンスを再構成できる一段階の時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-15T17:59:23Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。