論文の概要: Universally Quantized Neural Compression
- arxiv url: http://arxiv.org/abs/2006.09952v2
- Date: Wed, 21 Oct 2020 17:10:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 19:15:35.307443
- Title: Universally Quantized Neural Compression
- Title(参考訳): 普遍量子化ニューラル圧縮
- Authors: Eirikur Agustsson and Lucas Theis
- Abstract要約: 本研究では,一様ノイズチャネルを普遍量子化を用いてテスト時に実装可能であることを示す。
これにより、完全に差別化可能な損失関数を維持しながら、トレーニングとテストフェーズのミスマッチを排除できます。
- 参考スコア(独自算出の注目度): 25.808505103655687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A popular approach to learning encoders for lossy compression is to use
additive uniform noise during training as a differentiable approximation to
test-time quantization. We demonstrate that a uniform noise channel can also be
implemented at test time using universal quantization (Ziv, 1985). This allows
us to eliminate the mismatch between training and test phases while maintaining
a completely differentiable loss function. Implementing the uniform noise
channel is a special case of the more general problem of communicating a
sample, which we prove is computationally hard if we do not make assumptions
about its distribution. However, the uniform special case is efficient as well
as easy to implement and thus of great interest from a practical point of view.
Finally, we show that quantization can be obtained as a limiting case of a soft
quantizer applied to the uniform noise channel, bridging compression with and
without quantization.
- Abstract(参考訳): 損失圧縮のためのエンコーダを学習する一般的なアプローチは、テスト時量子化の微分可能な近似としてトレーニング中に付加的な均一ノイズを使用することである。
普遍量子化(Ziv, 1985)を用いて,一様ノイズチャネルをテスト時に実装可能であることを示す。
これにより、完全に差別化可能な損失関数を維持しながら、トレーニングとテストフェーズのミスマッチを排除できます。
均一なノイズチャネルを実装することは、サンプルを伝達するより一般的な問題の特別な場合であり、分布を仮定しない場合、計算的に困難であることが証明される。
しかし、一様な特殊なケースは効率的であり、実装も容易であり、実際的な観点からは非常に興味深い。
最後に,一様雑音チャネルに適用したソフト量子化器の限界ケースとして量子化が得られ,量子化の有無にかかわらず圧縮を橋渡しできることを示す。
関連論文リスト
- Classical Verification of Quantum Learning Advantages with Noises [0.27930367518472443]
本稿では,量子フーリエサンプリング回路で得られるノイズのない結果を再構成する,効率的な古典的誤り訂正アルゴリズムを提案する。
また、ランダムな例のオラクルにアクセス可能な古典的クライアントは、ノイズのある量子証明器によるパリティ学習結果の検証も可能であることを証明した。
論文 参考訳(メタデータ) (2024-11-14T06:14:39Z) - Entanglement-enabled advantage for learning a bosonic random displacement channel [6.354564715928202]
量子絡み合いは、ボソニック連続変数系の学習特性において指数関数的に有利であることを示す。
簡単な絡み合わせ支援スキームは、十分な量のスクイーズを条件に、$n$に依存しないサンプル数だけを必要とする。
本研究は, 連続変数システム学習における絡み合いの役割を照らし, 証明可能な絡み合いを生かした実験的な実証を目指している。
論文 参考訳(メタデータ) (2024-02-29T02:30:39Z) - Compressed quantum error mitigation [0.0]
本稿では,量子回路の適用時に蓄積した誤差を除去するために,確率的誤差消去に基づく量子誤差軽減手法を提案する。
単純なノイズモデルでは,効率の良い局所デノイザが発見できることを示すとともに,簡単なスピン鎖の時間発展のディジタル量子シミュレーションに有効であることを示す。
論文 参考訳(メタデータ) (2023-02-10T19:00:02Z) - Importance sampling for stochastic quantum simulations [68.8204255655161]
我々は、係数に応じてハミルトン式からサンプリングしてランダムな積公式を構築するqDriftプロトコルを導入する。
サンプリング段階における個別のシミュレーションコストを考慮し、同じ精度でシミュレーションコストを削減可能であることを示す。
格子核効果場理論を用いて数値シミュレーションを行った結果, 実験結果が得られた。
論文 参考訳(メタデータ) (2022-12-12T15:06:32Z) - Suppressing Amplitude Damping in Trapped Ions: Discrete Weak
Measurements for a Non-unitary Probabilistic Noise Filter [62.997667081978825]
この劣化を逆転させるために、低オーバーヘッドプロトコルを導入します。
振幅減衰雑音に対する非単位確率フィルタの実装のための2つのトラップイオンスキームを提案する。
このフィルタは、単一コピー準蒸留のためのプロトコルとして理解することができる。
論文 参考訳(メタデータ) (2022-09-06T18:18:41Z) - Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression [151.3826781154146]
先行変数と超優先度を持つ潜伏変数は、変動画像圧縮において重要な問題である。
ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
当社のモデルでは、速度歪曲性能が向上し、圧縮速度が3.18倍に向上した。
論文 参考訳(メタデータ) (2022-03-21T11:44:17Z) - Noise thresholds for classical simulability of non-linear Boson sampling [4.812718493682455]
我々は,高次非線形性を導入し,問題の計算複雑性とプロトコルの雑音に対する堅牢性を高める。
以上の結果から,入出力状態におけるシングルモードKerrの非線形性の追加は,線形光学的進化を維持しつつも,Bosonサンプリングプロトコルがノイズに対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2022-02-24T12:17:28Z) - Tight bounds on the convergence of noisy random circuits to the uniform
distribution [1.4841630983274847]
ノイズの多いランダム回路の出力分布特性について検討する。
本稿では,近年の深度非依存および雑音非依存の証明技術における障壁効果について論じる。
論文 参考訳(メタデータ) (2021-12-01T18:47:50Z) - Nonuniform-to-Uniform Quantization: Towards Accurate Quantization via
Generalized Straight-Through Estimation [48.838691414561694]
非一様量子化(英: Nonuniform-to-Uniform Quantization、N2UQ)は、ハードウェアフレンドリーで効率的な非一様法の強力な表現能力を維持できる方法である。
N2UQはImageNet上で最先端の非一様量子化法を0.71.8%上回る。
論文 参考訳(メタデータ) (2021-11-29T18:59:55Z) - Forster Decomposition and Learning Halfspaces with Noise [60.691817861402676]
フォースター変換 (Forster transform) は、分布を優れた反集中特性を持つものに変換する演算である。
本稿では,Forster変換が存在し,効率よく計算できる少数の分布の解離混合として,任意の分布を効率的に分解可能であることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:00:59Z) - Sigma-Delta and Distributed Noise-Shaping Quantization Methods for
Random Fourier Features [73.25551965751603]
我々は、量子化 RFF が基礎となるカーネルの高精度な近似を可能にすることを証明した。
量子化 RFF はさらに圧縮され,メモリ使用量と精度のトレードオフに優れることを示す。
本手法は,この文脈におけるアート量子化手法の他の状態と比較し,いくつかの機械学習タスクにおいて,提案手法の性能を実証的に示す。
論文 参考訳(メタデータ) (2021-06-04T17:24:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。