論文の概要: Compressed-Domain-Aware Online Video Super-Resolution
- arxiv url: http://arxiv.org/abs/2603.07694v1
- Date: Sun, 08 Mar 2026 15:52:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.027454
- Title: Compressed-Domain-Aware Online Video Super-Resolution
- Title(参考訳): 圧縮ドメイン対応オンラインビデオスーパーリゾリューション
- Authors: Yuhang Wang, Hai Li, Shujuan Hou, Zhetao Dong, Xiaoyao Yang,
- Abstract要約: 帯域制限のあるオンラインビデオストリーミングでは、ビデオは通常ダウンサンプリングされ圧縮される。
最近のオンラインビデオ超解像(オンラインVSR)アプローチは有望な結果をもたらすが、それでも計算集約的である。
本稿では、オンラインVSRのための圧縮ドメイン認識ネットワーク(CDA-VSR)を提案し、品質と効率のバランスをとる。
- 参考スコア(独自算出の注目度): 15.33081890735916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In bandwidth-limited online video streaming, videos are usually downsampled and compressed. Although recent online video super-resolution (online VSR) approaches achieve promising results, they are still compute-intensive and fall short of real-time processing at higher resolutions, due to complex motion estimation for alignment and redundant processing of consecutive frames. To address these issues, we propose a compressed-domain-aware network (CDA-VSR) for online VSR, which utilizes compressed-domain information, including motion vectors, residual maps, and frame types to balance quality and efficiency. Specifically, we propose a motion-vector-guided deformable alignment module that uses motion vectors for coarse warping and learns only local residual offsets for fine-tuned adjustments, thereby maintaining accuracy while reducing computation. Then, we utilize a residual map gated fusion module to derive spatial weights from residual maps, suppressing mismatched regions and emphasizing reliable details. Further, we design a frame-type-aware reconstruction module for adaptive compute allocation across frame types, balancing accuracy and efficiency. On the REDS4 dataset, our CDA-VSR surpasses the state-of-the-art method TMP, with a maximum PSNR improvement of 0.13 dB while delivering more than double the inference speed. The code will be released at https://github.com/sspBIT/CDA-VSR.
- Abstract(参考訳): 帯域制限のあるオンラインビデオストリーミングでは、ビデオは通常ダウンサンプリングされ圧縮される。
最近のオンラインビデオ超解像(オンラインVSR)アプローチは有望な結果をもたらすが、連続するフレームのアライメントと冗長な処理のための複雑な動き推定のため、計算集約的であり、高解像度でのリアルタイム処理には不足している。
これらの課題に対処するため,オンラインVSRのための圧縮ドメイン対応ネットワーク(CDA-VSR)を提案する。
具体的には、粗いワープにモーションベクトルを使用し、微調整のための局所的な残差オフセットのみを学習し、計算を削減しつつ精度を維持できる動きベクトル誘導変形アライメントモジュールを提案する。
そこで我々は,残余マップゲート融合モジュールを用いて,空間重みを残留マップから導出し,不一致領域を抑えるとともに,信頼性の高い詳細を強調する。
さらに、フレームタイプ間の適応的な計算割り当て、精度と効率のバランスをとるためのフレーム型認識再構成モジュールを設計する。
REDS4データセットでは、我々のCDA-VSRは最先端のTMPを上回り、最大PSNRは0.13dB、推論速度は2倍以上である。
コードはhttps://github.com/sspBIT/CDA-VSRで公開される。
関連論文リスト
- Trajectory-aware Shifted State Space Models for Online Video Super-Resolution [57.87099307245989]
本稿では、トラジェクトリ対応シフトSSM(TS-Mamba)に基づく新しいオンラインVSR手法を提案する。
TS-Mambaは、最初にビデオ内の軌跡を構築し、以前のフレームから最もよく似たトークンを選択する。
私たちのTS-Mambaは、ほとんどのケースで最先端のパフォーマンスを実現し、22.7%以上の削減複雑性(MAC)を実現しています。
論文 参考訳(メタデータ) (2025-08-14T08:42:15Z) - QuantVSR: Low-Bit Post-Training Quantization for Real-World Video Super-Resolution [53.13952833016505]
実世界のビデオ超解像(VSR)のための低ビット量子化モデルを提案する。
キャリブレーションデータセットを用いて各レイヤの空間的および時間的複雑さを計測する。
我々はFPおよび低ビット分岐を改良し、同時最適化を実現する。
論文 参考訳(メタデータ) (2025-08-06T14:35:59Z) - FCA2: Frame Compression-Aware Autoencoder for Modular and Fast Compressed Video Super-Resolution [68.77813885751308]
最先端(SOTA)圧縮ビデオ超解像(CVSR)モデルは、長期の推論時間、複雑なトレーニングパイプライン、補助情報への依存など、永続的な課題に直面している。
ハイパースペクトル画像(HSI)とビデオデータの構造的および統計的類似性から着想を得た,効率的でスケーラブルなソリューションを提案する。
提案手法では,計算複雑性を低減し,推論を高速化し,フレーム間の時間情報の抽出を促進する圧縮駆動型次元減少戦略を導入する。
論文 参考訳(メタデータ) (2025-06-13T07:59:52Z) - Collaborative Feedback Discriminative Propagation for Video Super-Resolution [66.61201445650323]
ビデオ超解像法(VSR)の主な成功は、主に空間情報と時間情報を探索することに由来する。
不正確なアライメントは通常、重要なアーティファクトを備えたアライメント機能につながる。
伝搬モジュールは同じタイムステップ機能のみを前方または後方に伝播する。
論文 参考訳(メタデータ) (2024-04-06T22:08:20Z) - TMP: Temporal Motion Propagation for Online Video Super-Resolution [20.56797955203068]
オンラインビデオ超解像(オンラインVSR)は、時間情報を集約するための効果的なアライメントモジュールに大きく依存している。
既存のオンラインVSR手法の多くは、各フレームの運動場を別々に推定してアライメントを行う。
本稿では,高速な画素レベルのアライメントを実現するために,運動場の連続性を利用した効率的な時間運動伝搬法を提案する。
論文 参考訳(メタデータ) (2023-12-15T16:17:34Z) - Spatial-Temporal Transformer based Video Compression Framework [44.723459144708286]
本稿では,STT-VC(Spatial-Temporal Transformer based Video Compression)フレームワークを提案する。
動作推定と補償のためのオフセット推定のためのUformerベースのオフセット推定を備えたRelaxed Deformable Transformer (RDT)と、予測改善のためのマルチ参照フレームに基づくMulti-Granularity Prediction (MGP)モジュールと、時間空間的継手残留圧縮を効率的に行うSpatial Feature Distribution prior based Transformer (SFD-T)を含む。
実験の結果,VTMよりも13.5%のBD-Rateを節約できることがわかった。
論文 参考訳(メタデータ) (2023-09-21T09:23:13Z) - A Codec Information Assisted Framework for Efficient Compressed Video
Super-Resolution [15.690562510147766]
リカレントニューラルネットワークアーキテクチャを用いたビデオ超解法(VSR)は、長距離時間依存性の効率的なモデリングのため、有望なソリューションである。
圧縮ビデオの繰り返しVSRモデルの高速化と高速化を目的としたコーデック情報支援フレームワーク(CIAF)を提案する。
論文 参考訳(メタデータ) (2022-10-15T08:48:29Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。