論文の概要: Post-Training Quantization for Cross-Platform Learned Image Compression
- arxiv url: http://arxiv.org/abs/2202.07513v1
- Date: Tue, 15 Feb 2022 15:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 15:47:31.713937
- Title: Post-Training Quantization for Cross-Platform Learned Image Compression
- Title(参考訳): クロスプラットフォーム学習画像圧縮のためのポストトレーニング量子化
- Authors: Dailan He, Ziming Yang, Yuan Chen, Qi Zhang, Hongwei Qin, Yan Wang
- Abstract要約: 学習した画像圧縮が従来の画像符号化技術より優れていることが確認されている。
考慮すべき最も重要な問題の1つは、非決定論的計算である。
本稿では,学習後量子化の導入によってこの問題を解決することを提案する。
- 参考スコア(独自算出の注目度): 15.67527732099067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been witnessed that learned image compression has outperformed
conventional image coding techniques and tends to be practical in industrial
applications. One of the most critical issues that need to be considered is the
non-deterministic calculation, which makes the probability prediction
cross-platform inconsistent and frustrates successful decoding. We propose to
solve this problem by introducing well-developed post-training quantization and
making the model inference integer-arithmetic-only, which is much simpler than
presently existing training and fine-tuning based approaches yet still keeps
the superior rate-distortion performance of learned image compression. Based on
that, we further improve the discretization of the entropy parameters and
extend the deterministic inference to fit Gaussian mixture models. With our
proposed methods, the current state-of-the-art image compression models can
infer in a cross-platform consistent manner, which makes the further
development and practice of learned image compression more promising.
- Abstract(参考訳): 学習された画像圧縮は従来の画像符号化技術よりも優れており、産業用途では実用的である傾向にある。
考慮すべき最も重要な問題の1つは非決定論的計算であり、これは確率予測がクロスプラットフォームに矛盾し、復号を成功させる。
本稿では,既存のトレーニングや微調整に基づくアプローチよりもはるかにシンプルでありながら,学習画像圧縮の速度歪み性能に優れるモデル推論を,十分に開発した後処理量子化を導入して,この問題を解決することを提案する。
これに基づいて,エントロピーパラメータの離散化をさらに改善し,決定論的推論をガウス混合モデルに適合するように拡張する。
提案手法により,現在の最先端画像圧縮モデルは,クロスプラットフォームに一貫性のある方法で推定できるため,学習画像圧縮のさらなる開発と実践がより有望になる。
関連論文リスト
- Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
拡散モデルは、大規模な生成画像モデルの分野を支配してきた。
本研究では,大規模な事前学習拡散モデルにおける高速拘束サンプリングのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Zero-Shot Image Compression with Diffusion-Based Posterior Sampling [34.50287066865267]
本研究は、既存の事前学習拡散モデルで学習された画像を利用して、損失画像圧縮の課題を解決することで、このギャップに対処する。
PSC (Posterior Sampling-based Compression) は, ゼロショット拡散を用いた後部サンプルを用いた。
PSCは,画像圧縮のための事前学習拡散モデルと後部サンプルのさらなる探索を行うため,確立された手法と比較して,競争力のある結果が得られる。
論文 参考訳(メタデータ) (2024-07-13T14:24:22Z) - A Training-Free Defense Framework for Robust Learned Image Compression [48.41990144764295]
本研究では,学習した画像圧縮モデルの敵攻撃に対する堅牢性について検討する。
簡単な画像変換関数をベースとした無訓練防御手法を提案する。
論文 参考訳(メタデータ) (2024-01-22T12:50:21Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Reducing The Amortization Gap of Entropy Bottleneck In End-to-End Image
Compression [2.1485350418225244]
エンド・ツー・エンドのディープ・トレーニング可能なモデルは、ビデオや画像の従来の手作り圧縮技術の性能をほぼ上回っている。
本稿では,このアモート化ギャップを小さなコストで低減する,シンプルで効率的なインスタンスベースのパラメータ化手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T11:43:45Z) - Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression [151.3826781154146]
先行変数と超優先度を持つ潜伏変数は、変動画像圧縮において重要な問題である。
ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
当社のモデルでは、速度歪曲性能が向上し、圧縮速度が3.18倍に向上した。
論文 参考訳(メタデータ) (2022-03-21T11:44:17Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Countering Adversarial Examples: Combining Input Transformation and
Noisy Training [15.561916630351947]
敵の例は、セキュリティに敏感な画像認識タスクに脅威をもたらす。
従来のJPEG圧縮はこれらの攻撃を防御するには不十分だが、画像の良さに突然の精度低下を引き起こす可能性がある。
我々は従来のJPEG圧縮アルゴリズムを改良し、NNにとってより好ましいものにしている。
論文 参考訳(メタデータ) (2021-06-25T02:46:52Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。