論文の概要: Hierarchical B-frame Video Coding Using Two-Layer CANF without Motion
Coding
- arxiv url: http://arxiv.org/abs/2304.02690v1
- Date: Wed, 5 Apr 2023 18:36:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 16:19:07.702215
- Title: Hierarchical B-frame Video Coding Using Two-Layer CANF without Motion
Coding
- Title(参考訳): 2層CANFを用いた階層的Bフレーム映像符号化
- Authors: David Alexandre, Hsueh-Ming Hang, Wen-Hsiao Peng
- Abstract要約: 2層拡張正規化フロー(CANF)に基づく新しいBフレーム符号化アーキテクチャを提案する。
モーションコーディングを伴わないビデオ圧縮というアイデアは,学習ビデオ符号化の新たな方向性を提供する。
提案方式の速度歪み性能は,最先端のBフレーム符号化方式であるB-CANFよりも若干低いが,他のBフレーム符号化方式よりも優れている。
- 参考スコア(独自算出の注目度): 17.998825368770635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical video compression systems consist of two main modules: motion coding
and residual coding. This general architecture is adopted by classical coding
schemes (such as international standards H.265 and H.266) and deep
learning-based coding schemes. We propose a novel B-frame coding architecture
based on two-layer Conditional Augmented Normalization Flows (CANF). It has the
striking feature of not transmitting any motion information. Our proposed idea
of video compression without motion coding offers a new direction for learned
video coding. Our base layer is a low-resolution image compressor that replaces
the full-resolution motion compressor. The low-resolution coded image is merged
with the warped high-resolution images to generate a high-quality image as a
conditioning signal for the enhancement-layer image coding in full resolution.
One advantage of this architecture is significantly reduced computational
complexity due to eliminating the motion information compressor. In addition,
we adopt a skip-mode coding technique to reduce the transmitted latent samples.
The rate-distortion performance of our scheme is slightly lower than that of
the state-of-the-art learned B-frame coding scheme, B-CANF, but outperforms
other learned B-frame coding schemes. However, compared to B-CANF, our scheme
saves 45% of multiply-accumulate operations (MACs) for encoding and 27% of MACs
for decoding. The code is available at https://nycu-clab.github.io.
- Abstract(参考訳): 典型的なビデオ圧縮システムは、モーションコーディングと残留符号化の2つの主要モジュールから構成される。
この一般的なアーキテクチャは、古典的なコーディングスキーム(国際標準H.265やH.266など)やディープラーニングベースのコーディングスキームに採用されている。
本稿では,2層型条件拡張正規化フロー(CANF)に基づく新しいBフレーム符号化アーキテクチャを提案する。
動きの情報を一切送信しないという驚くべき特徴がある。
提案する動画圧縮方式は,学習した映像符号化に新たな方向性を与える。
我々のベース層は、フルレゾルモーション圧縮機を置き換える低解像度画像圧縮機である。
低解像度符号化画像をワープされた高解像度画像とマージし、フル解像度でエンハンスメント層画像符号化の条件付け信号として高品質な画像を生成する。
このアーキテクチャの利点の1つは、運動情報圧縮機の除去による計算複雑性の大幅な低減である。
また,送信された潜在サンプルを減らすためのスキップモード符号化手法も採用している。
提案方式の速度歪み性能は,最先端のBフレーム符号化方式であるB-CANFよりも若干低いが,他のBフレーム符号化方式よりも優れている。
しかし、B-CANFと比較して、符号化のための乗算累積演算(MAC)の45%、復号のためのMACの27%を節約する。
コードはhttps://nycu-clab.github.ioで入手できる。
関連論文リスト
- Motion Free B-frame Coding for Neural Video Compression [0.0]
本稿では,上記の2つの典型的なアーキテクチャの欠点に対処する新しいアプローチを提案する。
モーションフリーアプローチの利点は2つある: ネットワークの符号化効率を改善し、計算複雑性を著しく低減する。
実験の結果,提案フレームワークはHEVCクラスBデータセット上でのSOTAディープ・ニューラルビデオ圧縮ネットワークよりも優れていた。
論文 参考訳(メタデータ) (2024-11-26T07:03:11Z) - MISC: Ultra-low Bitrate Image Semantic Compression Driven by Large Multimodal Model [78.4051835615796]
本稿では,マルチモーダル画像セマンティック圧縮法を提案する。
画像の意味情報を抽出するLMMエンコーダと、その意味に対応する領域を特定するマップエンコーダと、非常に圧縮されたビットストリームを生成する画像エンコーダと、前記情報に基づいて画像を再構成するデコーダとからなる。
知覚50%を節約しながら最適な一貫性と知覚結果を達成することができ、これは次世代のストレージと通信において強力な可能性を持つ。
論文 参考訳(メタデータ) (2024-02-26T17:11:11Z) - IBVC: Interpolation-driven B-frame Video Compression [68.18440522300536]
Bフレームビデオ圧縮は、双方向動作推定と動き補償(MEMC)符号化をミドルフレーム再構成に適用することを目的としている。
従来の学習アプローチでは、しばしば双方向の光フロー推定に依存するニューラルネットワークのPフレームコーデックをBフレームに直接拡張する。
これらの問題に対処するために,IBVC (Interpolation-B-frame Video Compression) という単純な構造を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:45:51Z) - Low-complexity Deep Video Compression with A Distributed Coding
Architecture [4.5885672744218]
一般的な予測符号化に基づくビデオ圧縮手法は、時間的冗長性を低減するために重エンコーダに依存している。
従来の分散コーディング手法は、予測的コーディングとはかなりのパフォーマンスギャップに悩まされている。
本稿では,レート歪み特性を改善するために,最初のエンドツーエンドの分散ビデオ圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-21T05:34:04Z) - Block Modulating Video Compression: An Ultra Low Complexity Image Compression Encoder for Resource Limited Platforms [35.76050232152349]
省電力・計算資源の少ないモバイルプラットフォーム上で, BMVCの超低コスト化が提案されている。
ディープニューラルネットワークによって実装された2種類のBMVCデコーダを提示する。
論文 参考訳(メタデータ) (2022-05-07T16:20:09Z) - Conditional Entropy Coding for Efficient Video Compression [82.35389813794372]
本稿では,フレーム間の条件エントロピーをモデル化することのみに焦点を当てた,非常にシンプルで効率的なビデオ圧縮フレームワークを提案する。
まず、画像遅延符号間のエントロピーをモデル化する単純なアーキテクチャが、他のニューラルビデオ圧縮やビデオコーデックと同等の競争力を持つことを示す。
次に、このアーキテクチャの上に新しい内部学習拡張を提案し、復号速度を抑えることなく10%の節約を実現した。
論文 参考訳(メタデータ) (2020-08-20T20:01:59Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z) - Content Adaptive and Error Propagation Aware Deep Video Compression [110.31693187153084]
本稿では,コンテンツ適応型・誤り伝搬対応型ビデオ圧縮システムを提案する。
本手法では, 複数フレームの圧縮性能を1フレームではなく複数フレームで考慮し, 共同学習手法を用いる。
従来の圧縮システムでは手作りのコーディングモードを使用する代わりに,オンラインエンコーダ更新方式をシステム内に設計する。
論文 参考訳(メタデータ) (2020-03-25T09:04:24Z) - Learning for Video Compression with Hierarchical Quality and Recurrent
Enhancement [164.7489982837475]
本稿では,階層型ビデオ圧縮(HLVC)手法を提案する。
我々のHLVCアプローチでは、エンコーダ側とデコーダ側の低品質フレームの圧縮と強化を容易にするため、階層的品質は符号化効率の恩恵を受ける。
論文 参考訳(メタデータ) (2020-03-04T09:31:37Z) - A Unified End-to-End Framework for Efficient Deep Image Compression [35.156677716140635]
本稿では,3つの新しい技術に基づくEDIC(Efficient Deep Image Compression)という統合フレームワークを提案する。
具体的には、学習に基づく画像圧縮のためのオートエンコーダスタイルのネットワークを設計する。
EDIC法は,映像圧縮性能を向上させるために,Deep Video Compression (DVC) フレームワークに容易に組み込むことができる。
論文 参考訳(メタデータ) (2020-02-09T14:21:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。