論文の概要: On Uniform Scalar Quantization for Learned Image Compression
- arxiv url: http://arxiv.org/abs/2309.17051v1
- Date: Fri, 29 Sep 2023 08:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:54:51.764757
- Title: On Uniform Scalar Quantization for Learned Image Compression
- Title(参考訳): 学習画像圧縮のための一様スカラー量子化について
- Authors: Haotian Zhang, Li Li, Dong Liu
- Abstract要約: その結果,サロゲートとラウンドリングの相違が列車のミスマッチの原因となり,サロゲートによる勾配推定のリスクが生じた。
解析により,推定量化潜在分布の分散に対する適切な下限を設定することで,列車のミスマッチを効果的に低減する2つの微妙なトリックが明らかになった。
本手法は,様々な画像圧縮ネットワークにおいて,従来の量子化サロゲートよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 17.24702997651976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned image compression possesses a unique challenge when incorporating
non-differentiable quantization into the gradient-based training of the
networks. Several quantization surrogates have been proposed to fulfill the
training, but they were not systematically justified from a theoretical
perspective. We fill this gap by contrasting uniform scalar quantization, the
most widely used category with rounding being its simplest case, and its
training surrogates. In principle, we find two factors crucial: one is the
discrepancy between the surrogate and rounding, leading to train-test mismatch;
the other is gradient estimation risk due to the surrogate, which consists of
bias and variance of the gradient estimation. Our analyses and simulations
imply that there is a tradeoff between the train-test mismatch and the gradient
estimation risk, and the tradeoff varies across different network structures.
Motivated by these analyses, we present a method based on stochastic uniform
annealing, which has an adjustable temperature coefficient to control the
tradeoff. Moreover, our analyses enlighten us as to two subtle tricks: one is
to set an appropriate lower bound for the variance parameter of the estimated
quantized latent distribution, which effectively reduces the train-test
mismatch; the other is to use zero-center quantization with partial
stop-gradient, which reduces the gradient estimation variance and thus
stabilize the training. Our method with the tricks is verified to outperform
the existing practices of quantization surrogates on a variety of
representative image compression networks.
- Abstract(参考訳): 学習画像圧縮は、ネットワークの勾配に基づくトレーニングに非微分可能量子化を組み込む際、ユニークな課題を持つ。
量子化サロゲートがいくつか提案されているが、理論的な観点から体系的に正当化されていない。
このギャップを埋めるために、最も広く使われているカテゴリである一様スカラー量子化と、最も単純なケースである丸み付けと、そのトレーニングサロゲートを対比する。
原則として,サロゲートとラウンドリングの相違が列車のミスマッチにつながること,サロゲートによる勾配推定リスクは勾配推定のバイアスとばらつきから成り立っていること,の2つの要因が重要である。
我々の分析とシミュレーションは,列車テストミスマッチと勾配推定リスクとの間にはトレードオフがあり,そのトレードオフはネットワーク構造によって異なることを示している。
そこで本研究では, 温度係数を調整可能な確率的均一焼鈍法を用いて, トレードオフを制御する手法を提案する。
さらに,推定量子化潜在分布の分散パラメータに対して適切な下限を設定し,列車テストミスマッチを効果的に低減し,一方は部分停止勾配を伴うゼロ中心量子化を用いることで,勾配推定のばらつきを低減し,トレーニングを安定させるという,微妙な手技を提示する。
提案手法は,様々な画像圧縮ネットワーク上での量子化サロゲートの既存手法を上回るように検証されている。
関連論文リスト
- Improved Quantization Strategies for Managing Heavy-tailed Gradients in
Distributed Learning [20.91559450517002]
その結果, 勾配分布は重く, アウトレーヤは圧縮戦略の設計に大きく影響していることがわかった。
既存のパラメータ量子化法は、この重み付き特徴が無視されるときに性能劣化を経験する。
重み付き勾配勾配に特化して設計された新しい圧縮スキームを導入し, トラルニケーションと量子化を効果的に組み合わせた。
論文 参考訳(メタデータ) (2024-02-02T06:14:31Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Distribution-Free Model-Agnostic Regression Calibration via
Nonparametric Methods [9.662269016653296]
予測モデルの量子化を特徴付けるための個別キャリブレーションの目的について考察する。
既存の方法はほとんどなく、個々のキャリブレーションに関して統計的な保証が欠如している。
基礎となる予測モデルに依存しない単純な非パラメトリックキャリブレーション法を提案する。
論文 参考訳(メタデータ) (2023-05-20T21:31:51Z) - Regularized Vector Quantization for Tokenized Image Synthesis [126.96880843754066]
画像の離散表現への量子化は、統合生成モデリングにおける根本的な問題である。
決定論的量子化は、厳しいコードブックの崩壊と推論段階の誤調整に悩まされ、一方、量子化は、コードブックの利用率の低下と再構築の目的に悩まされる。
本稿では、2つの視点から正規化を適用することにより、上記の問題を効果的に緩和できる正規化ベクトル量子化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-11T15:20:54Z) - Multi-Head Multi-Loss Model Calibration [13.841172927454204]
我々は,深層アンサンブルの訓練と推論に要する費用を省く,単純化されたアンサンブルの形式を導入する。
具体的には、各頭部は、重み付きクロスエントロピー損失を最小限に抑えるために訓練されるが、重みは異なる枝によって異なる。
その結果,2つの挑戦データセットにおいて精度を犠牲にすることなく,精度の高いキャリブレーションを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T09:32:32Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - Quantized Adam with Error Feedback [11.91306069500983]
本稿では,深層ニューラルネットワークを学習するための適応勾配法の分散変種について述べる。
労働者間の通信コストを低減するために,2種類の量子化方式を取り入れた。
論文 参考訳(メタデータ) (2020-04-29T13:21:54Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。