論文の概要: Channel-Level Variable Quantization Network for Deep Image Compression
- arxiv url: http://arxiv.org/abs/2007.12619v1
- Date: Wed, 15 Jul 2020 07:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 06:30:22.845691
- Title: Channel-Level Variable Quantization Network for Deep Image Compression
- Title(参考訳): 深部画像圧縮のためのチャネルレベル可変量子化ネットワーク
- Authors: Zhisheng Zhong, Hiroaki Akutsu and Kiyoharu Aizawa
- Abstract要約: チャネルレベルの可変量子化ネットワークを提案し、重要なチャネルに対してより多くの畳み込みを動的に割り当て、無視可能なチャネルに対して退避する。
提案手法は優れた性能を実現し,より優れた視覚的再構成を実現する。
- 参考スコア(独自算出の注目度): 50.3174629451739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep image compression systems mainly contain four components: encoder,
quantizer, entropy model, and decoder. To optimize these four components, a
joint rate-distortion framework was proposed, and many deep neural
network-based methods achieved great success in image compression. However,
almost all convolutional neural network-based methods treat channel-wise
feature maps equally, reducing the flexibility in handling different types of
information. In this paper, we propose a channel-level variable quantization
network to dynamically allocate more bitrates for significant channels and
withdraw bitrates for negligible channels. Specifically, we propose a variable
quantization controller. It consists of two key components: the channel
importance module, which can dynamically learn the importance of channels
during training, and the splitting-merging module, which can allocate different
bitrates for different channels. We also formulate the quantizer into a
Gaussian mixture model manner. Quantitative and qualitative experiments verify
the effectiveness of the proposed model and demonstrate that our method
achieves superior performance and can produce much better visual
reconstructions.
- Abstract(参考訳): ディープイメージ圧縮システムは主にエンコーダ、量子化器、エントロピーモデル、デコーダの4つのコンポーネントを含む。
これら4つのコンポーネントを最適化するために、ジョイントレート歪みフレームワークが提案され、多くのディープニューラルネットワークベースの手法が画像圧縮において大きな成功を収めた。
しかしながら、畳み込みニューラルネットワークに基づく手法のほとんどすべてが、チャネル毎の特徴マップを等しく扱い、異なる種類の情報を扱う柔軟性を低下させる。
本稿では,重要なチャネルのビットレートを動的に割り当て,無視可能なチャネルのビットレートを下げるチャネルレベル可変量子化ネットワークを提案する。
具体的には,可変量子化コントローラを提案する。
トレーニング中のチャネルの重要性を動的に学習するチャンネル重要モジュールと、異なるチャネルに対して異なるビットレートを割り当てる分割マージモジュールの2つの重要なコンポーネントで構成されている。
また,量子化器をガウス混合モデルに定式化する。
定量的・定性的な実験により,提案手法の有効性を検証し,優れた性能を実現し,より優れた視覚再構成を実現することを実証した。
関連論文リスト
- Exploring Effective Mask Sampling Modeling for Neural Image Compression [171.35596121939238]
既存のニューラルイメージ圧縮手法の多くは、空間的冗長性を排除するために、ハイパープライアモデルやコンテキストモデルからのサイド情報に依存している。
近年の自然言語処理と高次視覚のための自己教師付き学習手法におけるマスクサンプリングモデルに着想を得て,ニューラル画像圧縮のための新しい事前学習戦略を提案する。
提案手法は,最先端画像圧縮法と比較して計算複雑性の低い競合性能を実現する。
論文 参考訳(メタデータ) (2023-06-09T06:50:20Z) - Joint Channel Estimation and Feedback with Masked Token Transformers in
Massive MIMO Systems [74.52117784544758]
本稿では,CSI行列内の固有周波数領域相関を明らかにするエンコーダデコーダに基づくネットワークを提案する。
エンコーダ・デコーダネットワーク全体がチャネル圧縮に使用される。
提案手法は,共同作業における現状のチャネル推定およびフィードバック技術より優れる。
論文 参考訳(メタデータ) (2023-06-08T06:15:17Z) - Convolutional Neural Network with Convolutional Block Attention Module
for Finger Vein Recognition [4.035753155957698]
指静脈認識のための畳み込みブロックアテンションモジュール(CBAM)を用いた軽量畳み込みニューラルネットワークを提案する。
実験は2つの公開データベース上で実施され,本手法がマルチモーダル・フィンガー認識において安定かつ高精度で頑健な性能を実現することを示す。
論文 参考訳(メタデータ) (2022-02-14T12:59:23Z) - Exploring Structural Sparsity in Neural Image Compression [14.106763725475469]
本稿では,各コンボリューションチャネルの重要性を判定し,トレーニング中に空間性を導入するために,ABCM(プラグイン適応型バイナリチャネルマスキング)を提案する。
推論中、重要でないチャネルをプルーニングしてスリムネットワークを得る。
実験の結果,最大7倍の計算削減と3倍の加速は無視可能な性能低下で達成できることがわかった。
論文 参考訳(メタデータ) (2022-02-09T17:46:49Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - MWQ: Multiscale Wavelet Quantized Neural Networks [45.22093693422084]
本稿では,周波数領域の画像特性に触発された新しいマルチスケールウェーブレット量子化(MWQ)法を提案する。
空間領域における量子化による情報損失を軽減するために、マルチスケールの周波数と空間情報を利用する。
MWQの柔軟性のため、ImageNetとCOCOデータセット上の3つのアプリケーションを実演する。
論文 参考訳(メタデータ) (2021-03-09T11:21:59Z) - Learned Multi-Resolution Variable-Rate Image Compression with
Octave-based Residual Blocks [15.308823742699039]
一般化オクターブ畳み込み(GoConv)と一般化オクターブ畳み込み(GoTConv)を用いた新しい可変レート画像圧縮フレームワークを提案する。
単一モデルが異なるビットレートで動作し、複数レートの画像特徴を学習できるようにするため、新しい目的関数が導入される。
実験結果から,H.265/HEVCベースのBPGや最先端の学習に基づく可変レート法などの標準コーデックよりも高い性能を示した。
論文 参考訳(メタデータ) (2020-12-31T06:26:56Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Operation-Aware Soft Channel Pruning using Differentiable Masks [51.04085547997066]
本稿では,データ駆動型アルゴリズムを提案する。このアルゴリズムは,操作特性を利用して,ディープニューラルネットワークを異なる方法で圧縮する。
我々は大規模な実験を行い、出力ネットワークの精度で優れた性能を達成する。
論文 参考訳(メタデータ) (2020-07-08T07:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。