論文の概要: Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression
- arxiv url: http://arxiv.org/abs/2203.10897v1
- Date: Mon, 21 Mar 2022 11:44:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 17:27:52.136245
- Title: Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression
- Title(参考訳): 効率的なニューラル画像圧縮のための多変量ガウス混合
- Authors: Xiaosu Zhu, Jingkuan Song, Lianli Gao, Feng Zheng, Heng Tao Shen
- Abstract要約: 先行変数と超優先度を持つ潜伏変数は、変動画像圧縮において重要な問題である。
ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
当社のモデルでは、速度歪曲性能が向上し、圧縮速度が3.18倍に向上した。
- 参考スコア(独自算出の注目度): 151.3826781154146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling latent variables with priors and hyperpriors is an essential problem
in variational image compression. Formally, trade-off between rate and
distortion is handled well if priors and hyperpriors precisely describe latent
variables. Current practices only adopt univariate priors and process each
variable individually. However, we find inter-correlations and
intra-correlations exist when observing latent variables in a vectorized
perspective. These findings reveal visual redundancies to improve
rate-distortion performance and parallel processing ability to speed up
compression. This encourages us to propose a novel vectorized prior.
Specifically, a multivariate Gaussian mixture is proposed with means and
covariances to be estimated. Then, a novel probabilistic vector quantization is
utilized to effectively approximate means, and remaining covariances are
further induced to a unified mixture and solved by cascaded estimation without
context models involved. Furthermore, codebooks involved in quantization are
extended to multi-codebooks for complexity reduction, which formulates an
efficient compression procedure. Extensive experiments on benchmark datasets
against state-of-the-art indicate our model has better rate-distortion
performance and an impressive $3.18\times$ compression speed up, giving us the
ability to perform real-time, high-quality variational image compression in
practice. Our source code is publicly available at
\url{https://github.com/xiaosu-zhu/McQuic}.
- Abstract(参考訳): プリエントとハイパープリアーによる潜在変数のモデリングは、変動画像圧縮において不可欠な問題である。
正式には、レートと歪みの間のトレードオフは、プリエントとハイパープリアーが潜在変数を正確に記述している場合に適切に処理される。
現在のプラクティスでは、各変数を個別に処理する。
しかし、ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
これらの結果から,圧縮速度を向上し,並列処理能力を向上する視覚的冗長性が確認された。
これにより、先述した新しいベクトル化の提案が促される。
具体的には,多変量ガウス混合を平均と共分散で推定する。
そして、新しい確率的ベクトル量子化を利用して効果的に近似し、残りの共分散を統一混合にさらに誘導し、文脈モデルに関係のないカスケード推定により解決する。
さらに、量子化に関わるコードブックを複雑性低減のためにマルチコードブックに拡張し、効率的な圧縮手順を定式化する。
最先端技術に対するベンチマークデータセットの大規模な実験により、我々のモデルは速度歪み性能が良く、圧縮速度が3.18\times$3.18\timesアップしていることが示される。
ソースコードは \url{https://github.com/xiaosu-zhu/mcquic} で公開されている。
関連論文リスト
- Image Compression with Product Quantized Masked Image Modeling [47.8581823609312]
最近のニューラル圧縮法は、人気のあるハイパープライアフレームワークに基づいている。
Scalar Quantizationに依存しており、非常に強力な圧縮パフォーマンスを提供します。
これは、ベクトル量子化が一般的に用いられる画像生成と表現学習の最近の進歩とは対照的である。
論文 参考訳(メタデータ) (2022-12-14T17:50:39Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Shifted Compression Framework: Generalizations and Improvements [2.2147691173934967]
コミュニケーションは、大規模な機械学習モデルの分散トレーニングにおける重要なボトルネックの1つだ。
勾配やモデルのような交換された情報のロッシー圧縮は、この問題を緩和する最も効果的な手段の1つである。
論文 参考訳(メタデータ) (2022-06-21T15:00:04Z) - Post-Training Quantization for Cross-Platform Learned Image Compression [15.67527732099067]
学習した画像圧縮が従来の画像符号化技術より優れていることが確認されている。
考慮すべき最も重要な問題の1つは、非決定論的計算である。
本稿では,学習後量子化の導入によってこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2022-02-15T15:41:12Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Compressing gradients by exploiting temporal correlation in momentum-SGD [17.995905582226463]
エラーフィードバックのないシステムにおける時間相関を利用した圧縮手法を解析する。
ImageNetデータセットを用いた実験により,提案手法は通信速度を著しく低減することを示した。
我々は、最小勾配ノルムの有界性を確立することにより、予測誤差仮定の下でSGDの収束を証明した。
論文 参考訳(メタデータ) (2021-08-17T18:04:06Z) - Generative Semantic Hashing Enhanced via Boltzmann Machines [61.688380278649056]
既存の生成ハッシュ法は、主に後部分布の分解形式を仮定する。
本稿では,ボルツマンマシンの分布を検索後部として利用することを提案する。
ハッシュコード内の異なるビット間の相関関係を効果的にモデル化することにより、我々のモデルは大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2020-06-16T01:23:39Z) - Asymmetric Gained Deep Image Compression With Continuous Rate Adaptation [12.009880944927069]
本稿では,非対称ゲイン変分オートエンコーダ(AG-VAE)の連続速度調整型画像圧縮フレームワークを提案する。
AG-VAEは、一組の利得単位を用いて、1つのモデルの離散レート適応を無視可能な追加計算で達成する。
提案手法は,SOTA学習画像圧縮手法を用いて,従来の画像コーデックよりも質的性能が向上する。
論文 参考訳(メタデータ) (2020-03-04T11:42:05Z) - On Biased Compression for Distributed Learning [65.62256987706128]
バイアス圧縮機が単一ノードと分散設定の両方において線形収束率をもたらすことを初めて示す。
理論的保証と実用性能を期待できる新しいバイアス圧縮機を提案する。
論文 参考訳(メタデータ) (2020-02-27T19:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。