論文の概要: Approaching Rate-Distortion Limits in Neural Compression with Lattice Transform Coding
- arxiv url: http://arxiv.org/abs/2403.07320v2
- Date: Sun, 13 Jul 2025 23:09:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:20.956439
- Title: Approaching Rate-Distortion Limits in Neural Compression with Lattice Transform Coding
- Title(参考訳): 格子変換符号化を用いたニューラル圧縮における速度歪み限界へのアプローチ
- Authors: Eric Lei, Hamed Hassani, Shirin Saeedi Bidokhti,
- Abstract要約: 内在次元が1より大きい合成源に対して, ニューラル圧縮が極めて最適であることを示す。
潜時空間における整数丸めでは、ニューラル変換によって誘導される量子化領域は正方形のままであり、最適なベクトル量子化の領域と一致しない。
代わりに格子量子化を提案し、妥当な複雑さで最適ベクトル量子化をほぼ回復することを示した。
- 参考スコア(独自算出の注目度): 29.69773024077467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural compression has brought tremendous progress in designing lossy compressors with good rate-distortion (RD) performance at low complexity. Thus far, neural compression design involves transforming the source to a latent vector, which is then rounded to integers and entropy coded. While this approach has been shown to be optimal on a few specific sources, we show that it can be highly sub-optimal on synthetic sources whose intrinsic dimensionality is greater than one. With integer rounding in the latent space, the quantization regions induced by neural transformations, remain square-like and fail to match those of optimal vector quantization. We demonstrate that this phenomenon is due to the choice of scalar quantization in the latent space, and not the transform design. By employing lattice quantization instead, we propose Lattice Transform Coding (LTC) and show that it approximately recovers optimal vector quantization at reasonable complexity. On real-world sources, LTC improves upon standard neural compressors. LTC also provides a framework that can integrate structurally (near) optimal information-theoretic designs into lossy compression; examples include block coding, which yields coding gain over optimal one-shot coding and approaches the asymptotically-achievable rate-distortion function, as well as nested lattice quantization for low complexity fixed-rate coding.
- Abstract(参考訳): ニューラル圧縮は、低複雑さでRD性能が良い損失圧縮機を設計する際の大きな進歩をもたらした。
これまでのニューラル圧縮設計では、ソースを潜在ベクトルに変換し、それを整数に丸め、エントロピーを符号化している。
このアプローチはいくつかの特定のソースで最適であることが示されているが、本質的な次元が1より大きい合成ソースでは極めて最適であることが示されている。
潜時空間における整数丸めでは、ニューラル変換によって誘導される量子化領域は正方形のままであり、最適なベクトル量子化の領域と一致しない。
この現象は、変換設計ではなく、潜在空間におけるスカラー量子化の選択によるものであることを示す。
格子量子化を代用して格子変換符号化(LTC)を提案し、最適ベクトル量子化を妥当な複雑さでほぼ回復することを示す。
実世界のソースでは、LCCは標準的なニューラル圧縮機を改善している。
LTCはまた、構造的に(ほぼ)最適情報理論設計を損失圧縮に統合できるフレームワークも提供している。例えば、ブロック符号化は、最適なワンショット符号化よりもコーディングの利得をもたらし、漸近的に達成可能なレート歪み関数にアプローチする。
関連論文リスト
- Reducing Storage of Pretrained Neural Networks by Rate-Constrained Quantization and Entropy Coding [56.066799081747845]
成長を続けるニューラルネットワークのサイズは、リソースに制約のあるデバイスに深刻な課題をもたらす。
本稿では,レートアウェア量子化とエントロピー符号化を組み合わせた学習後圧縮フレームワークを提案する。
この方法では非常に高速な復号化が可能であり、任意の量子化グリッドと互換性がある。
論文 参考訳(メタデータ) (2025-05-24T15:52:49Z) - Learning Optimal Lattice Vector Quantizers for End-to-end Neural Image Compression [16.892815659154053]
格子ベクトル量子化(LVQ)は、機能間の依存関係をより効果的に活用できる魅力的な代替手段である。
従来のLVQ構造は、均一なソース分布のために設計・最適化されている。
本稿では,この弱点を克服するための新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-25T06:05:08Z) - Variable-size Symmetry-based Graph Fourier Transforms for image compression [65.7352685872625]
可変サイズのグラフフーリエ変換を符号化フレームワークに導入する。
提案アルゴリズムは,ノード間の特定の対称接続を追加することにより,グリッド上の対称グラフを生成する。
実験により、SBGFTは、明示的な多重変換選択に統合された一次変換よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-24T13:00:44Z) - Fast Data-independent KLT Approximations Based on Integer Functions [0.0]
Karhunen-Loeve変換(KLT)は確立された離散変換であり、データのデコリレーションと次元減少の最適特性を示す。
本稿では、様々なラウンドオフ関数を用いて、低複雑さでデータに依存しないKLT近似のカテゴリを紹介する。
提案した変換は,古典的性能尺度を考慮した正確なKLTおよび近似と比較すると良好に動作する。
論文 参考訳(メタデータ) (2024-10-11T20:05:05Z) - Approximately Invertible Neural Network for Learned Image Compression [19.330720001489937]
本稿では,学習画像圧縮のための約可逆ニューラルネットワーク(A-INN)フレームワークを提案する。
INNと量子化を用いた場合、損失画像圧縮における速度歪みの最適化を定式化する。
大規模な実験により,提案したA-INNは既存の学習画像圧縮法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-30T07:57:47Z) - Frequency Disentangled Features in Neural Image Compression [13.016298207860974]
ニューラル画像圧縮ネットワークは、エントロピーモデルが潜在コードの真の分布とどの程度うまく一致しているかによって制御される。
本稿では,緩和されたスカラー量子化が低ビットレートを実現するのに役立つ特徴レベルの周波数歪みを提案する。
提案するネットワークは,手作業によるコーデックだけでなく,空間的自己回帰エントロピーモデル上に構築されたニューラルネットワークベースのコーデックよりも優れている。
論文 参考訳(メタデータ) (2023-08-04T14:55:44Z) - Joint Hierarchical Priors and Adaptive Spatial Resolution for Efficient
Neural Image Compression [11.25130799452367]
ニューラル画像圧縮(NIC)のための絶対画像圧縮変換器(ICT)を提案する。
ICTは、潜在表現からグローバルコンテキストとローカルコンテキストの両方をキャプチャし、量子化された潜在表現の分布をパラメータ化する。
我々のフレームワークは、多目的ビデオ符号化(VVC)参照符号化(VTM-18.0)とニューラルスウィンT-ChARMに対する符号化効率とデコーダ複雑性のトレードオフを大幅に改善する。
論文 参考訳(メタデータ) (2023-07-05T13:17:14Z) - LVQAC: Lattice Vector Quantization Coupled with Spatially Adaptive
Companding for Efficient Learned Image Compression [24.812267280543693]
本稿では,空間適応型コンパウンディング(LVQAC)マッピングを併用した新しい格子ベクトル量子化方式を提案する。
エンドツーエンドのCNN画像圧縮モデルでは、一様量子化器をLVQACで置き換えることにより、モデルの複雑さを大幅に増大させることなく、より優れたレート歪み性能が得られる。
論文 参考訳(メタデータ) (2023-03-25T23:34:15Z) - Deep Quantum Error Correction [73.54643419792453]
量子誤り訂正符号(QECC)は、量子コンピューティングのポテンシャルを実現するための鍵となる要素である。
本研究では,新しいエンペンド・ツー・エンドの量子誤りデコーダを効率的に訓練する。
提案手法は,最先端の精度を実現することにより,QECCのニューラルデコーダのパワーを実証する。
論文 参考訳(メタデータ) (2023-01-27T08:16:26Z) - Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression [151.3826781154146]
先行変数と超優先度を持つ潜伏変数は、変動画像圧縮において重要な問題である。
ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
当社のモデルでは、速度歪曲性能が向上し、圧縮速度が3.18倍に向上した。
論文 参考訳(メタデータ) (2022-03-21T11:44:17Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Learned transform compression with optimized entropy encoding [72.20409648915398]
学習した変換圧縮の問題を検討し、離散符号上の変換と確率分布の両方を学習する。
勾配のバックプロパゲーションを可能にするために量子化演算をソフト緩和し, 潜在符号のベクトル量子化を(スカラーではなく)採用した。
論文 参考訳(メタデータ) (2021-04-07T17:58:01Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。