論文の概要: NVTC: Nonlinear Vector Transform Coding
- arxiv url: http://arxiv.org/abs/2305.16025v1
- Date: Thu, 25 May 2023 13:06:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 15:08:39.315599
- Title: NVTC: Nonlinear Vector Transform Coding
- Title(参考訳): NVTC:非線形ベクトル変換符号化
- Authors: Runsen Feng, Zongyu Guo, Weiping Li, Zhibo Chen
- Abstract要約: 理論上、ベクトル量子化(VQ)は常にスカラー量子化(SQ)よりも、レート歪み(R-D)性能の点で優れている。
最近のニューラル画像圧縮の最先端手法は、主に均一なスカラー量子化を伴う非線形変換符号化(NTC)に基づいている。
ベクトル変換符号化(NVTC)と呼ばれるニューラル画像圧縮のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 35.10187626615328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In theory, vector quantization (VQ) is always better than scalar quantization
(SQ) in terms of rate-distortion (R-D) performance. Recent state-of-the-art
methods for neural image compression are mainly based on nonlinear transform
coding (NTC) with uniform scalar quantization, overlooking the benefits of VQ
due to its exponentially increased complexity. In this paper, we first
investigate on some toy sources, demonstrating that even if modern neural
networks considerably enhance the compression performance of SQ with nonlinear
transform, there is still an insurmountable chasm between SQ and VQ. Therefore,
revolving around VQ, we propose a novel framework for neural image compression
named Nonlinear Vector Transform Coding (NVTC). NVTC solves the critical
complexity issue of VQ through (1) a multi-stage quantization strategy and (2)
nonlinear vector transforms. In addition, we apply entropy-constrained VQ in
latent space to adaptively determine the quantization boundaries for joint
rate-distortion optimization, which improves the performance both theoretically
and experimentally. Compared to previous NTC approaches, NVTC demonstrates
superior rate-distortion performance, faster decoding speed, and smaller model
size. Our code is available at https://github.com/USTC-IMCL/NVTC
- Abstract(参考訳): 理論上、ベクトル量子化(VQ)は常にスカラー量子化(SQ)よりも、レート歪み(R-D)性能の点で優れている。
ニューラル画像圧縮の最近の最先端手法は、その指数関数的に増大する複雑性のためにVQの利点を見越して、一様スカラー量子化を伴う非線形変換符号化(NTC)に基づいている。
本稿では,最近のニューラルネットワークが非線形変換によるSQの圧縮性能を著しく向上させたとしても,SQとVQの間には相変わらずキャズムが存在することを示す。
そこで本研究では,非線形ベクトル変換符号化(NVTC)と呼ばれるニューラル画像圧縮のための新しいフレームワークを提案する。
NVTCは、(1)多段階量子化戦略と(2)非線形ベクトル変換によるVQの臨界複雑性問題を解く。
さらに, エントロピー拘束vqを潜在空間に適用し, 共分散最適化のための量子化境界を適応的に決定し, 理論的および実験的に性能を向上させる。
従来のNTCアプローチと比較して、NVTCはより優れたレート歪み性能、より高速な復号速度、より小さいモデルサイズを示す。
私たちのコードはhttps://github.com/USTC-IMCL/NVTCで利用可能です。
関連論文リスト
- Learning Optimal Lattice Vector Quantizers for End-to-end Neural Image Compression [16.892815659154053]
格子ベクトル量子化(LVQ)は、機能間の依存関係をより効果的に活用できる魅力的な代替手段である。
従来のLVQ構造は、均一なソース分布のために設計・最適化されている。
本稿では,この弱点を克服するための新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-25T06:05:08Z) - Variable-size Symmetry-based Graph Fourier Transforms for image compression [65.7352685872625]
可変サイズのグラフフーリエ変換を符号化フレームワークに導入する。
提案アルゴリズムは,ノード間の特定の対称接続を追加することにより,グリッド上の対称グラフを生成する。
実験により、SBGFTは、明示的な多重変換選択に統合された一次変換よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-24T13:00:44Z) - Optimal depth and a novel approach to variational quantum process tomography [11.496254312838659]
本稿では,変分量子回路(VQC)のプロセストモグラフィーを,PT_VQCとU-VQSVDの2つの新しい方式を提案する。
技術の現状と比較すると、PT_VQCはプロセストモグラフィーに必要なキュービットをそれぞれ実行している。
U-VQSVDは、量子ビット次元に応じて2から5の係数で(ランダムに生成された入力状態を用いて)非インフォーム攻撃より優れる。
論文 参考訳(メタデータ) (2024-04-25T11:58:06Z) - Approaching Rate-Distortion Limits in Neural Compression with Lattice
Transform Coding [33.377272636443344]
ニューラル圧縮設計では、ソースを潜在ベクトルに変換し、それを整数に丸め、エントロピーを符号化する。
我々は、i.d.配列に対して非常に最適であり、実際に、元のソースシーケンスのスカラー量子化を常に回復することを示した。
遅延空間におけるスカラー量子化の代わりに格子量子化を用いることにより、格子変換符号化(LTC)が様々な次元で最適なベクトル量子化を回復できることを実証する。
論文 参考訳(メタデータ) (2024-03-12T05:09:25Z) - Soft Convex Quantization: Revisiting Vector Quantization with Convex
Optimization [40.1651740183975]
ベクトル量子化(VQ)の直接代用として,ソフト凸量子化(SCQ)を提案する。
SCQは微分凸最適化(DCO)層のように機能する。
CIFAR-10, GTSRB, LSUNデータセット上での有効性を示す。
論文 参考訳(メタデータ) (2023-10-04T17:45:14Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - LVQAC: Lattice Vector Quantization Coupled with Spatially Adaptive
Companding for Efficient Learned Image Compression [24.812267280543693]
本稿では,空間適応型コンパウンディング(LVQAC)マッピングを併用した新しい格子ベクトル量子化方式を提案する。
エンドツーエンドのCNN画像圧縮モデルでは、一様量子化器をLVQACで置き換えることにより、モデルの複雑さを大幅に増大させることなく、より優れたレート歪み性能が得られる。
論文 参考訳(メタデータ) (2023-03-25T23:34:15Z) - Theoretical Error Performance Analysis for Variational Quantum Circuit
Based Functional Regression [83.79664725059877]
本研究では,次元減少と機能回帰のためのエンドツーエンドの量子ニューラルネットワークであるTTN-VQCを提案する。
また,polyak-Lojasiewicz (PL) 条件を利用してTTN-VQCの最適化特性を特徴付ける。
論文 参考訳(メタデータ) (2022-06-08T06:54:07Z) - Characterizing the loss landscape of variational quantum circuits [77.34726150561087]
本稿では,VQCの損失関数のヘシアンを計算する方法を紹介する。
この情報がどのように解釈され、従来のニューラルネットワークと比較されるかを示す。
論文 参考訳(メタデータ) (2020-08-06T17:48:12Z) - Kernel Quantization for Efficient Network Compression [59.55192551370948]
Kernel Quantization(KQ)は、事前訓練された全精度畳み込みニューラルネットワーク(CNN)モデルを、大幅なパフォーマンス損失のない低精度バージョンに効率的に変換することを目的としている。
重み付けからフィルタプルーニングへの進化に触発され,カーネルレベルと重み付けレベルの両方で定量化することを提案する。
ImageNet分類タスクの実験では、KQはVGGとResNet18でそれぞれ平均1.05ビットと1.62ビットを必要とし、畳み込み層の各パラメータを表す。
論文 参考訳(メタデータ) (2020-03-11T08:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。