論文の概要: Lossy Compression with Gaussian Diffusion
- arxiv url: http://arxiv.org/abs/2206.08889v1
- Date: Fri, 17 Jun 2022 16:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 13:36:03.806855
- Title: Lossy Compression with Gaussian Diffusion
- Title(参考訳): ガウス拡散を伴う損失圧縮
- Authors: Lucas Theis, Tim Salimans, Matthew D. Hoffman, Fabian Mentzer
- Abstract要約: 非条件拡散生成モデルに基づく新しい損失圧縮手法DiffCについて述べる。
エンコーダ変換の欠如にもかかわらず、概念実証を実装し、驚くほどうまく機能することを発見した。
流れに基づく再構築は,祖先サンプリングよりも高頻度で3dBのゲインを達成できることを示す。
- 参考スコア(独自算出の注目度): 28.930398810600504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a novel lossy compression approach called DiffC which is based on
unconditional diffusion generative models. Unlike modern compression schemes
which rely on transform coding and quantization to restrict the transmitted
information, DiffC relies on the efficient communication of pixels corrupted by
Gaussian noise. We implement a proof of concept and find that it works
surprisingly well despite the lack of an encoder transform, outperforming the
state-of-the-art generative compression method HiFiC on ImageNet 64x64. DiffC
only uses a single model to encode and denoise corrupted pixels at arbitrary
bitrates. The approach further provides support for progressive coding, that
is, decoding from partial bit streams. We perform a rate-distortion analysis to
gain a deeper understanding of its performance, providing analytical results
for multivariate Gaussian data as well as initial results for general
distributions. Furthermore, we show that a flow-based reconstruction achieves a
3 dB gain over ancestral sampling at high bitrates.
- Abstract(参考訳): 非条件拡散生成モデルに基づくdiffcと呼ばれる新しい損失圧縮手法について述べる。
トランスフォーメーション符号化と量子化に依存して送信された情報を制限する現代の圧縮方式とは異なり、DiffCはガウスノイズによって劣化したピクセルの効率的な通信に依存している。
我々は概念実証を実装し,imagenet 64x64 上の最先端生成圧縮法に匹敵するエンコーダ変換の欠如にもかかわらず,驚くほどうまく機能していることを見出した。
DiffCは1つのモデルのみを使用して、劣化したピクセルを任意のビットレートでエンコードし、復号する。
このアプローチはさらにプログレッシブコーディング、すなわち部分ビットストリームから復号化をサポートする。
我々は,多変量ガウスデータに対する解析結果と一般分布に対する初期結果を提供するとともに,その性能をより深く理解するために,レートゆがみ解析を行う。
さらに,フローベースの再構成により,高ビットレートでの祖先サンプリングよりも3dBのゲインが得られることを示す。
関連論文リスト
- Correcting Diffusion-Based Perceptual Image Compression with Privileged End-to-End Decoder [49.01721042973929]
本稿では,特権付きエンド・ツー・エンド・エンド・デコーダ・モデルを用いた拡散型画像圧縮法を提案する。
従来の知覚圧縮法と比較して,歪みと知覚の両方において,本手法の優位性を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-07T10:57:54Z) - Enhancing the Rate-Distortion-Perception Flexibility of Learned Image
Codecs with Conditional Diffusion Decoders [7.485128109817576]
本研究では,デコーダとして使用する場合,条件拡散モデルが生成圧縮タスクにおいて有望な結果をもたらすことを示す。
本稿では,デコーダとして使用する場合,条件拡散モデルが生成圧縮タスクにおいて有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-05T11:48:35Z) - Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - Lossy Image Compression with Conditional Diffusion Models [25.158390422252097]
本稿では,拡散生成モデルを用いた画像圧縮のエンドツーエンド最適化について概説する。
VAEベースのニューラル圧縮とは対照的に、(平均)デコーダは決定論的ニューラルネットワークであり、私たちのデコーダは条件付き拡散モデルである。
提案手法では,GANモデルよりもFIDスコアが強く,VAEモデルとの競合性能も高い。
論文 参考訳(メタデータ) (2022-09-14T21:53:27Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Modeling Image Quantization Tradeoffs for Optimal Compression [0.0]
ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T07:35:22Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。