論文の概要: SkipSR: Faster Super Resolution with Token Skipping
- arxiv url: http://arxiv.org/abs/2510.08799v1
- Date: Thu, 09 Oct 2025 20:27:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.707657
- Title: SkipSR: Faster Super Resolution with Token Skipping
- Title(参考訳): SkipSR:Token Skippingでより高速なスーパーレゾリューション
- Authors: Rohan Choudhury, Shanchuan Lin, Jianyi Wang, Hao Chen, Qi Zhao, Feng Cheng, Lu Jiang, Kris Kitani, Laszlo A. Jeni,
- Abstract要約: 拡散型超解像(SR)はビデオ生成とビデオ復元において重要な要素であるが、遅くて高価である。
我々は,低解像度入力から直接低次元領域を識別することで,ビデオSRを高速化するフレームワークであるSkipSRを提案する。
標準SRベンチマークでは、720pビデオの従来モデルよりも最大60%高速で、品質が損なわれない。
- 参考スコア(独自算出の注目度): 46.407256877675565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based super-resolution (SR) is a key component in video generation and video restoration, but is slow and expensive, limiting scalability to higher resolutions and longer videos. Our key insight is that many regions in video are inherently low-detail and gain little from refinement, yet current methods process all pixels uniformly. To take advantage of this, we propose SkipSR, a simple framework for accelerating video SR by identifying low-detail regions directly from low-resolution input, then skipping computation on them entirely, only super-resolving the areas that require refinement. This simple yet effective strategy preserves perceptual quality in both standard and one-step diffusion SR models while significantly reducing computation. In standard SR benchmarks, our method achieves up to 60% faster end-to-end latency than prior models on 720p videos with no perceptible loss in quality. Video demos are available at https://rccchoudhury.github.io/skipsr/
- Abstract(参考訳): 拡散ベースの超解像(SR)は、ビデオ生成とビデオ復元において重要な要素であるが、遅くて高価であり、スケーラビリティを高い解像度と長いビデオに制限している。
私たちの重要な洞察は、ビデオの多くの領域は本質的に低精細であり、精細化によってほとんど得られないが、現在の手法はすべてのピクセルを均一に処理しているということだ。
そこで本稿では,低解像度の領域を低解像度の入力から直接識別し,それらを完全にスキップすることで,ビデオSRを高速化するシンプルなフレームワークであるSkipSRを提案する。
このシンプルで効果的な戦略は、標準と1ステップの拡散SRモデルの両方において知覚品質を保ちながら、計算を著しく削減する。
標準SRベンチマークでは、720pビデオの従来モデルよりも最大60%高速で、品質が損なわれない。
ビデオデモはhttps://rccchoudhury.github.io/skipsr/で公開されている。
関連論文リスト
- PatchVSR: Breaking Video Diffusion Resolution Limits with Patch-wise Video Super-Resolution [65.09345929328586]
条件付き誘導のためのデュアルストリームアダプタを統合したPatchVSRという革新的な手法を提案する。
提案手法はパッチレベルで高忠実で高解像度の細部を合成できることを示す。
512x512の解像度ベースモデルに基づいて、非常に高い効率で高い競争力を持つ4K VSRを実現することができる。
論文 参考訳(メタデータ) (2025-09-30T09:55:14Z) - TurboVSR: Fantastic Video Upscalers and Where to Find Them [33.83721799307721]
拡散に基づく生成モデルは、ビデオ超解像(VSR)タスクにおいて例外的な可能性を証明している。
超高効率拡散ベースビデオ超解像モデルであるTurboVSRを提案する。
TurboVSRは最先端のVSR方式と同等に動作し、100倍以上高速で、2秒の1080pビデオを処理するのにわずか7秒しかかからない。
論文 参考訳(メタデータ) (2025-06-30T08:24:13Z) - RTSR: A Real-Time Super-Resolution Model for AV1 Compressed Content [10.569678424799616]
超解像度(SR)は、映像コンテンツの視覚的品質を改善するための重要な技術である。
リアルタイム再生をサポートするためには,高速SRモデルの実装が重要である。
本稿では,圧縮映像の視覚的品質を高めるために,低複雑さSR手法RTSRを提案する。
論文 参考訳(メタデータ) (2024-11-20T14:36:06Z) - SR+Codec: a Benchmark of Super-Resolution for Video Compression Bitrate Reduction [0.0]
圧縮ビデオのスケールアップのために,スーパーリゾリューションのキャパシティを解析するためのベンチマークを開発した。
我々のデータセットは5つの広く使われている圧縮標準に基づくビデオコーデックを用いていた。
いくつかのSRモデルと圧縮を組み合わせることで、品質を著しく損なうことなく動画を縮小できることがわかった。
論文 参考訳(メタデータ) (2023-05-08T16:42:55Z) - Deep Parametric 3D Filters for Joint Video Denoising and Illumination
Enhancement in Video Super Resolution [96.89588203312451]
本稿では,Deep Parametric 3D Filters (DP3DF) と呼ばれる新しいパラメトリック表現を提案する。
DP3DFは、ローカル情報を組み込んで、単一エンコーダ/デコーダネットワークにおいて、同時復調、照明強化、SRを効率的に実現している。
また、動的残留フレームを共有バックボーンを介してDP3DFと共同で学習し、SR品質をさらに向上させる。
論文 参考訳(メタデータ) (2022-07-05T03:57:25Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - Memory-Augmented Non-Local Attention for Video Super-Resolution [61.55700315062226]
低解像度(LR)ビデオから高忠実度高解像度(HR)ビデオを生成するための新しいビデオ超解法を提案する。
従来の方法は、主に時間的隣のフレームを利用して、現在のフレームの超解像を支援する。
対照的に、フレームアライメントなしでビデオの超解像を可能にするクロスフレーム非局所アテンション機構を考案する。
論文 参考訳(メタデータ) (2021-08-25T05:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。