論文の概要: Quantization in Layer's Input is Matter
- arxiv url: http://arxiv.org/abs/2202.05137v1
- Date: Thu, 10 Feb 2022 16:43:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 16:26:50.236252
- Title: Quantization in Layer's Input is Matter
- Title(参考訳): 層入力中の量子化は物質である
- Authors: Daning Cheng, WenGuang Chen
- Abstract要約: 損失関数に対するパラメータの量子化よりも,レイヤの入力における量子化が重要であることを示す。
また、入力量子化誤差に基づくアルゴリズムは、ヘッセン系混合精度レイアウトアルゴリズムよりも優れている。
- 参考スコア(独自算出の注目度): 4.877532217193618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we will show that the quantization in layer's input is more
important than parameters' quantization for loss function. And the algorithm
which is based on the layer's input quantization error is better than
hessian-based mixed precision layout algorithm.
- Abstract(参考訳): 本稿では、損失関数に対するパラメータの量子化よりも、層の入力における量子化が重要であることを示す。
また,入力量子化誤差に基づくアルゴリズムはヘッセン系混合精度レイアウトアルゴリズムよりも優れている。
関連論文リスト
- QGait: Toward Accurate Quantization for Gait Recognition with Binarized Input [17.017127559393398]
バックプロパゲーション時の円関数の勾配をよりよくシミュレートする,微分可能なソフト量子化器を提案する。
これにより、ネットワークは微妙な入力摂動から学習することができる。
量子化エラーをシミュレートしながら収束を確保するためのトレーニング戦略をさらに洗練する。
論文 参考訳(メタデータ) (2024-05-22T17:34:18Z) - Quantization of Large Language Models with an Overdetermined Basis [73.79368761182998]
本稿では,嘉心表現の原理に基づくデータ量子化アルゴリズムを提案する。
以上の結果から, カシ量子化はモデル性能の競争力や優れた品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T12:38:46Z) - Quantum Computing and Tensor Networks for Laminate Design: A Novel Approach to Stacking Sequence Retrieval [1.6421520075844793]
主な例として、積層複合材料の重量最適化がある。
量子計算の急速に発展する分野は、これらの複雑な問題に対処するための新しいアプローチを提供するかもしれない。
論文 参考訳(メタデータ) (2024-02-09T15:01:56Z) - Quantum Worst-Case to Average-Case Reductions for All Linear Problems [66.65497337069792]
量子アルゴリズムにおける最悪のケースと平均ケースの削減を設計する問題について検討する。
量子アルゴリズムの明示的で効率的な変換は、入力のごく一部でのみ正し、全ての入力で正しくなる。
論文 参考訳(メタデータ) (2022-12-06T22:01:49Z) - End-to-end resource analysis for quantum interior point methods and portfolio optimization [63.4863637315163]
問題入力から問題出力までの完全な量子回路レベルのアルゴリズム記述を提供する。
アルゴリズムの実行に必要な論理量子ビットの数と非クリフォードTゲートの量/深さを報告する。
論文 参考訳(メタデータ) (2022-11-22T18:54:48Z) - Efficient factored gradient descent algorithm for quantum state tomography [10.100843479138222]
本稿では,量子トモグラフィープロトコルを提案する。このプロトコルは,状態要素と固有値マッピングを組み合わせ,ランク不足問題に対処する。
また, ランダムな11ビット混合状態のフル状態トモグラフィを1分以内で達成できることも確認した。
論文 参考訳(メタデータ) (2022-07-12T06:45:35Z) - Sampling Overhead Analysis of Quantum Error Mitigation: Uncoded vs.
Coded Systems [69.33243249411113]
パウリの誤差は、多数の現実的な量子チャネルの中で最も低いサンプリングオーバーヘッドをもたらすことを示す。
我々はQEMと量子チャネル符号化を併用する手法を考案し、純粋なQEMと比較してサンプリングオーバーヘッドの低減を解析する。
論文 参考訳(メタデータ) (2020-12-15T15:51:27Z) - Where Should We Begin? A Low-Level Exploration of Weight Initialization
Impact on Quantized Behaviour of Deep Neural Networks [93.4221402881609]
異なる重みの初期化が重みの最終的な分布と異なるCNNアーキテクチャの活性化に与える影響について、詳細なアブレーション研究を行う。
我々の知る限りでは、ウェイトの初期化とその量子化行動に対する影響について、そのような低レベルで詳細な定量分析を行うのは、私たちは初めてである。
論文 参考訳(メタデータ) (2020-11-30T06:54:28Z) - Offloading Quantum Computation by Superposition Masking [1.52292571922932]
量子入力を隠すマスクの重ね合わせを生成する。
マスクを使えば、元の入力を変更することなく結果を測定することができる。
この手法をモジュラー逆転、ルートフィニング、剰余分割、スパース行列逆転、一般群準同型に応用する。
論文 参考訳(メタデータ) (2020-08-11T08:32:44Z) - Accelerating Neural Network Inference by Overflow Aware Quantization [16.673051600608535]
ディープニューラルネットワークの重計算を継承することで、その広範な応用が防げる。
トレーニング可能な適応的不動点表現を設計し,オーバーフローを考慮した量子化手法を提案する。
提案手法により,量子化損失を最小限に抑え,最適化された推論性能を得ることができる。
論文 参考訳(メタデータ) (2020-05-27T11:56:22Z) - An Application of Quantum Annealing Computing to Seismic Inversion [55.41644538483948]
小型地震インバージョン問題を解決するために,D波量子アニールに量子アルゴリズムを適用した。
量子コンピュータによって達成される精度は、少なくとも古典的コンピュータと同程度である。
論文 参考訳(メタデータ) (2020-05-06T14:18:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。