論文の概要: A Neural-network Enhanced Video Coding Framework beyond ECM
- arxiv url: http://arxiv.org/abs/2402.08397v1
- Date: Tue, 13 Feb 2024 11:56:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:42:34.670087
- Title: A Neural-network Enhanced Video Coding Framework beyond ECM
- Title(参考訳): ECMを超えたニューラルネットワーク強化ビデオ符号化フレームワーク
- Authors: Yanchen Zhao, Wenxuan He, Chuanmin Jia, Qizhe Wang, Junru Li, Yue Li,
Chaoyi Lin, Kai Zhang, Li Zhang, Siwei Ma
- Abstract要約: 拡張圧縮モデル(ECM)に基づくハイブリッドフレームワークの提案
コーディング技術をよく設計した最新のECMリファレンスソフトウェアを拡張しました。
ECM-10.0と比較すると,Y,U,Vの各成分に対して6.26,13.33,12.33BDレートの保存が可能となる。
- 参考スコア(独自算出の注目度): 36.32660726387989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, a hybrid video compression framework is proposed that serves
as a demonstrative showcase of deep learning-based approaches extending beyond
the confines of traditional coding methodologies. The proposed hybrid framework
is founded upon the Enhanced Compression Model (ECM), which is a further
enhancement of the Versatile Video Coding (VVC) standard. We have augmented the
latest ECM reference software with well-designed coding techniques, including
block partitioning, deep learning-based loop filter, and the activation of
block importance mapping (BIM) which was integrated but previously inactive
within ECM, further enhancing coding performance. Compared with ECM-10.0, our
method achieves 6.26, 13.33, and 12.33 BD-rate savings for the Y, U, and V
components under random access (RA) configuration, respectively.
- Abstract(参考訳): 本稿では,従来のコーディング手法の限界を超えた深層学習に基づくアプローチの実証的紹介を行う,ハイブリッドビデオ圧縮フレームワークを提案する。
提案するハイブリッドフレームワークは,Versatile Video Coding (VVC) 標準のさらなる拡張である Enhanced Compression Model (ECM) に基づいて構築されている。
我々は、ブロック分割、深層学習に基づくループフィルタ、以前はECMに含まれていなかったブロック重要度マッピング(BIM)の活性化など、よく設計されたコーディング技術を用いて、最新のECM参照ソフトウェアを拡張し、さらに符号化性能を向上した。
ECM-10.0と比較すると,Y,U,Vの各コンポーネントをランダムアクセス(RA)構成で6.26,13.33,12.33BDレートで保存できる。
関連論文リスト
- IBVC: Interpolation-driven B-frame Video Compression [68.18440522300536]
Bフレームビデオ圧縮は、双方向動作推定と動き補償(MEMC)符号化をミドルフレーム再構成に適用することを目的としている。
従来の学習アプローチでは、しばしば双方向の光フロー推定に依存するニューラルネットワークのPフレームコーデックをBフレームに直接拡張する。
これらの問題に対処するために,IBVC (Interpolation-B-frame Video Compression) という単純な構造を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:45:51Z) - LAMBO: Large Language Model Empowered Edge Intelligence [75.14984953011876]
モバイルエッジコンピューティング(MEC)のための LLM-based Offloading (LAMBO) フレームワークを提案する。
i) 入力埋め込み (IE) オフロードシステムの情報を制約で表現し、学習可能なベクターに高品質でプロンプトする (ii) 深いエンコーダと浅いデコーダを持つ意思決定モジュールである非対称エンコーダデコーダ (AED) モデル、 (iv) エキスパートフィードバック (ALEF) からのアクティブラーニング 動的環境変化に対応しながらAEDのデコーダ部分の微調整に使用できる。
論文 参考訳(メタデータ) (2023-08-29T07:25:42Z) - Efficient Encoder-Decoder and Dual-Path Conformer for Comprehensive
Feature Learning in Speech Enhancement [0.2538209532048866]
本稿では、時間周波数(T-F)ドメイン音声強調ネットワーク(DPCFCS-Net)を提案する。
改良された高密度接続ブロック、デュアルパスモジュール、畳み込み拡張トランス(コンフォーマー)、チャンネルアテンション、空間アテンションが組み込まれている。
従来のモデルと比較して,提案モデルはより効率的なエンコーダデコーダを備え,包括的特徴を学習することができる。
論文 参考訳(メタデータ) (2023-06-09T12:52:01Z) - Deep Learning-Based Intra Mode Derivation for Versatile Video Coding [65.96100964146062]
本稿では,Deep Learning based intra Mode Derivation (DLIMD) と呼ばれるインテリジェントイントラモード導出法を提案する。
DLIMDのアーキテクチャは、異なる量子化パラメータ設定と、非平方要素を含む可変符号化ブロックに適応するように開発されている。
提案手法は,Versatile Video Coding (VVC) テストモデルを用いて,Y, U, Vコンポーネントの平均ビットレートを2.28%, 1.74%, 2.18%削減できる。
論文 参考訳(メタデータ) (2022-04-08T13:23:59Z) - End-to-end Neural Video Coding Using a Compound Spatiotemporal
Representation [33.54844063875569]
本稿では,2つの手法により生成された予測を適応的に組み合わせたハイブリッド動作補償法を提案する。
具体的には、リカレント情報集約(RIA)モジュールを用いて、複合時間表現(STR)を生成する。
さらに、ベクトルベースの再サンプリング、適応カーネルベースの再サンプリング、補償モード選択マップ、テクスチャ拡張を含む、CSTRから複数の予測を生成する1対多デコーダパイプラインを設計する。
論文 参考訳(メタデータ) (2021-08-05T19:43:32Z) - Deep Learning-based Implicit CSI Feedback in Massive MIMO [68.81204537021821]
ニューラルネットワーク(NN)を用いて,プリコーディング行列インジケータ(PMI)符号化とデコードモジュールを置き換える,低オーバヘッド特性を継承するDLベースの暗黙的フィードバックアーキテクチャを提案する。
1つのリソースブロック(RB)では、2つのアンテナ構成下のタイプIコードブックと比較して25.0%と40.0%のオーバーヘッドを節約できる。
論文 参考訳(メタデータ) (2021-05-21T02:43:02Z) - BVI-DVC: A Training Database for Deep Video Compression [13.730093064777078]
BVI-DVCはCNNベースのビデオ圧縮システムのトレーニング用に提供される。
270pから2160pまでの様々な空間分解能で800の配列を含む。
既存の10のネットワークアーキテクチャで、4つの異なるコーディングツールで評価されている。
論文 参考訳(メタデータ) (2020-03-30T15:26:16Z) - A Unified End-to-End Framework for Efficient Deep Image Compression [35.156677716140635]
本稿では,3つの新しい技術に基づくEDIC(Efficient Deep Image Compression)という統合フレームワークを提案する。
具体的には、学習に基づく画像圧縮のためのオートエンコーダスタイルのネットワークを設計する。
EDIC法は,映像圧縮性能を向上させるために,Deep Video Compression (DVC) フレームワークに容易に組み込むことができる。
論文 参考訳(メタデータ) (2020-02-09T14:21:08Z) - An Emerging Coding Paradigm VCM: A Scalable Coding Approach Beyond
Feature and Signal [99.49099501559652]
Video Coding for Machine (VCM)は、視覚的特徴圧縮と古典的なビデオ符号化のギャップを埋めることを目的としている。
我々は,学習した動きパターンのガイダンスを用いて,映像フレームを再構成するために条件付き深層生成ネットワークを用いる。
予測モデルを介してスパース動作パターンを抽出することを学ぶことにより、特徴表現をエレガントに活用し、符号化されたフレームの外観を生成する。
論文 参考訳(メタデータ) (2020-01-09T14:18:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。