論文の概要: Uni-LVC: A Unified Method for Intra- and Inter-Mode Learned Video Compression
- arxiv url: http://arxiv.org/abs/2603.05756v1
- Date: Thu, 05 Mar 2026 23:30:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.691439
- Title: Uni-LVC: A Unified Method for Intra- and Inter-Mode Learned Video Compression
- Title(参考訳): Uni-LVC: モデム内およびインターモーダルビデオ圧縮のための統一手法
- Authors: Yichi Zhang, Ruoyu Yang, Fengqing Zhu,
- Abstract要約: 単一モデルにおける低遅延およびランダムアクセスによるイントラとインターコーディングの両方をサポートする統一LVCであるUni-LVCを紹介する。
強力なコーデック上に構築されたUni-LVCは、参照フレームから抽出された時間情報に基づいて、コード内条件としてインターコーディングを行う。
時間的キューを選択的にスケールするために信頼性を考慮した分類器が提案され、参照が信頼できない場合、Uni-LVCはイントラコーディングに近づく。
- 参考スコア(独自算出の注目度): 12.0699499858344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in learned video compression (LVC) have led to significant performance gains, with codecs such as DCVC-RT surpassing the H.266/VVC low-delay mode in compression efficiency. However, existing LVCs still exhibit key limitations: they often require separate models for intra and inter coding modes, and their performance degrades when temporal references are unreliable. To address this, we introduce Uni-LVC, a unified LVC method that supports both intra and inter coding with low-delay and random-access in a single model. Building on a strong intra-codec, Uni-LVC formulates inter-coding as intra-coding conditioned on temporal information extracted from reference frames. We design an efficient cross-attention adaptation module that integrates temporal cues, enabling seamless support for both unidirectional (low-delay) and bidirectional (random-access) prediction modes. A reliability-aware classifier is proposed to selectively scale the temporal cues, making Uni-LVC behave closer to intra coding when references are unreliable. We further propose a multistage training strategy to facilitate adaptive learning across various coding modes. Extensive experiments demonstrate that Uni-LVC achieves superior rate-distortion performance in intra and inter configurations while maintaining comparable computational efficiency.
- Abstract(参考訳): 学習ビデオ圧縮(LVC)の最近の進歩は、DCVC-RTのようなコーデックがH.266/VVC低遅延モードを圧縮効率で上回るなど、大きなパフォーマンス向上をもたらした。
しかし、既存のLVCには重要な制限がある。それらは、イントラおよびインターコーディングモードの別々のモデルを必要とすることが多く、時間的参照が信頼できない場合にはパフォーマンスが低下する。
この問題を解決するために,Uni-LVCを導入し,単一のモデルで低遅延およびランダムアクセスでイントラ・インターコーディングとイントラ・インターコーディングの両方をサポートする統一LVC法を提案する。
強力なコーデック上に構築されたUni-LVCは、参照フレームから抽出された時間情報に基づいて、コード内条件としてインターコーディングを行う。
我々は、時間的手がかりを統合し、一方向(低遅延)と双方向(ランダムアクセス)の両方の予測モードをシームレスにサポートできる効率的なクロスアテンション適応モジュールを設計する。
時間的キューを選択的にスケールするために信頼性を考慮した分類器が提案され、参照が信頼できない場合、Uni-LVCはイントラコーディングに近づく。
さらに,多段階の学習戦略を提案し,様々なコーディングモードにおける適応学習を容易にする。
広汎な実験により、Uni-LVCは、計算効率を同等に保ちながら、イントラおよびインターコンフィグレーションにおいてより優れた速度歪み性能を達成できることを示した。
関連論文リスト
- Real-Time Neural Video Compression with Unified Intra and Inter Coding [8.998142257336674]
各フレームを1つのモデルで処理する、イントラ・インターコーディングとイントラ・コーディングを統一したNVCフレームワークを提案する。
本稿では,フレーム間冗長性を利用した2フレーム同時圧縮設計を提案する。
提案方式は,DCVC-RTを平均12.1%のBDレートで性能良くし,フレームあたりの安定性と品質を向上し,リアルタイム符号化/復号性能を維持している。
論文 参考訳(メタデータ) (2025-10-16T08:31:44Z) - NinA: Normalizing Flows in Action. Training VLA Models with Normalizing Flows [75.70583906344815]
拡散モデルは、複雑なマルチモーダルな動作分布をモデル化できるため、アクションデコーダとして広く採用されている。
我々は、Vision-Language-Action(VLA)モデルのための拡散型デコーダの高速かつ表現性の高い代替品であるNinAを提案する。
論文 参考訳(メタデータ) (2025-08-23T00:02:15Z) - Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding [51.711605076319216]
拡散に基づく大規模言語モデル (Diffusion LLM) は、並列復号機能を持つ非自己回帰テキスト生成を約束している。
本稿では,双方向拡散モデルに適したブロック単位で近似したKVキャッシュ機構を提案する。
本稿では,信頼しきい値を超えるトークンを選択的に復号し,依存関係違反を軽減し,生成品質を維持できる信頼度対応並列復号方式を提案する。
論文 参考訳(メタデータ) (2025-05-28T17:39:15Z) - Deep Learning-Based Intra Mode Derivation for Versatile Video Coding [65.96100964146062]
本稿では,Deep Learning based intra Mode Derivation (DLIMD) と呼ばれるインテリジェントイントラモード導出法を提案する。
DLIMDのアーキテクチャは、異なる量子化パラメータ設定と、非平方要素を含む可変符号化ブロックに適応するように開発されている。
提案手法は,Versatile Video Coding (VVC) テストモデルを用いて,Y, U, Vコンポーネントの平均ビットレートを2.28%, 1.74%, 2.18%削減できる。
論文 参考訳(メタデータ) (2022-04-08T13:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。