論文の概要: Improving Convergence for Quantum Variational Classifiers using Weight
Re-Mapping
- arxiv url: http://arxiv.org/abs/2212.14807v1
- Date: Thu, 22 Dec 2022 13:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 04:14:33.471415
- Title: Improving Convergence for Quantum Variational Classifiers using Weight
Re-Mapping
- Title(参考訳): 重み再マッピングによる量子変分器の収束性向上
- Authors: Michael K\"olle, Alessandro Giovagnoli, Jonas Stein, Maximilian
Balthasar Mansky, Julian Hager and Claudia Linnhoff-Popien
- Abstract要約: 近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。
重みを2pi$の間隔に不明瞭にマッピングするために、VQCの重み再マッピングを導入する。
修正されていないウェイトを用いて、Wineデータセットの重量再マッピングにより、テスト精度が10%向上したことを実証した。
- 参考スコア(独自算出の注目度): 60.086820254217336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, quantum machine learning has seen a substantial increase in
the use of variational quantum circuits (VQCs). VQCs are inspired by artificial
neural networks, which achieve extraordinary performance in a wide range of AI
tasks as massively parameterized function approximators. VQCs have already
demonstrated promising results, for example, in generalization and the
requirement for fewer parameters to train, by utilizing the more robust
algorithmic toolbox available in quantum computing. A VQCs' trainable
parameters or weights are usually used as angles in rotational gates and
current gradient-based training methods do not account for that. We introduce
weight re-mapping for VQCs, to unambiguously map the weights to an interval of
length $2\pi$, drawing inspiration from traditional ML, where data rescaling,
or normalization techniques have demonstrated tremendous benefits in many
circumstances. We employ a set of five functions and evaluate them on the Iris
and Wine datasets using variational classifiers as an example. Our experiments
show that weight re-mapping can improve convergence in all tested settings.
Additionally, we were able to demonstrate that weight re-mapping increased test
accuracy for the Wine dataset by $10\%$ over using unmodified weights.
- Abstract(参考訳): 近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。
VQCは、膨大なパラメータ化関数近似器として、幅広いAIタスクで素晴らしいパフォーマンスを達成する人工知能ニューラルネットワークにインスパイアされている。
vqcsはすでに、量子コンピューティングで利用可能なより堅牢なアルゴリズムツールボックスを利用することで、一般化やトレーニングするパラメータの少ない要件など、有望な結果を示している。
vqcsのトレーニング可能なパラメータや重みは通常、回転ゲートの角度として使われ、現在の勾配に基づく訓練方法ではそうはならない。
我々は,vqcsの重み再マッピングを導入し,その重みを2\pi$の間隔にあいまいにマッピングし,データ再スケーリングや正規化技術が多くの状況において大きなメリットを実証した従来のmlからインスピレーションを得た。
変分分類器を例として,5つの関数を例に挙げ,アイリスとワインのデータセット上で評価する。
実験の結果, 重量再マッピングは全試験条件における収束性を向上させることがわかった。
さらに,無修正の重みを用いて,ワインデータセットのテスト精度を10~%向上させることを実証した。
関連論文リスト
- Leveraging Pre-Trained Neural Networks to Enhance Machine Learning with Variational Quantum Circuits [48.33631905972908]
我々は、事前学習されたニューラルネットワークを用いて変分量子回路(VQC)を強化する革新的なアプローチを導入する。
この手法は近似誤差をキュービット数から効果的に分離し、制約条件の必要性を除去する。
我々の結果はヒトゲノム解析などの応用にまで拡張され、我々のアプローチの幅広い適用性を示している。
論文 参考訳(メタデータ) (2024-11-13T12:03:39Z) - GWQ: Gradient-Aware Weight Quantization for Large Language Models [61.17678373122165]
勾配対応重み量子化(GWQ)は、勾配を利用して外れ値の局所化を行う、低ビット重み量子化のための最初の量子化手法である。
GWQはFP16精度で上位1%の外れ値に対応し、残りの非外れ値重みは低ビットフォーマットで格納される。
ゼロショットタスクでは、GWQ量子化モデルは他の量子化法よりも精度が高い。
論文 参考訳(メタデータ) (2024-10-30T11:16:04Z) - Post-Training Quantization for Re-parameterization via Coarse & Fine
Weight Splitting [13.270381125055275]
本稿では,重みの量子化誤差を低減するために,粗大かつ微細な重み分割法(CFWS)を提案する。
我々は、活性化のための最適な量子化尺度を決定するために改良されたKLメトリックを開発した。
例えば、量子化されたRepVGG-A1モデルは、わずか0.3%の精度損失を示す。
論文 参考訳(メタデータ) (2023-12-17T02:31:20Z) - Weight Re-Mapping for Variational Quantum Algorithms [54.854986762287126]
変動量子回路(VQC)における重み付けの考え方を紹介する。
我々は,8つの分類データセットに対する影響を評価するために,7つの異なる重み再マッピング関数を用いる。
以上の結果から,重量再マッピングによりVQCの収束速度が向上することが示唆された。
論文 参考訳(メタデータ) (2023-06-09T09:42:21Z) - RepQ-ViT: Scale Reparameterization for Post-Training Quantization of
Vision Transformers [2.114921680609289]
視覚変換器のための新しいPTQフレームワークRepQ-ViTを提案する。
RepQ-ViTは量子化と推論プロセスを分離する。
既存の強力なベースラインを上回り、ViTの4ビットPTQの精度を有効レベルまで向上させることができる。
論文 参考訳(メタデータ) (2022-12-16T02:52:37Z) - Tensor Ring Parametrized Variational Quantum Circuits for Large Scale
Quantum Machine Learning [28.026962110693695]
本稿では,テンソルリング表現を用いて回路内の量子状態を圧縮するアルゴリズムを提案する。
ストレージと計算時間は、正確なシミュレーションアルゴリズムによる指数的な増加と比較して、キュービット数とレイヤー数で線形に増加する。
We achieve a test accuracy of 83.33% on Iris dataset and a maximum of 99.30% and 76.31% on binary and ternary classification of MNIST dataset。
論文 参考訳(メタデータ) (2022-01-21T19:54:57Z) - Subtleties in the trainability of quantum machine learning models [0.0]
本稿では,変分量子アルゴリズムの勾配スケーリング結果を用いて,量子機械学習モデルの勾配スケーリングについて検討する。
以上の結果から,VQAトレーサビリティの低下がQMLのバレンプラトーなどの問題を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-27T20:28:53Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Characterizing the loss landscape of variational quantum circuits [77.34726150561087]
本稿では,VQCの損失関数のヘシアンを計算する方法を紹介する。
この情報がどのように解釈され、従来のニューラルネットワークと比較されるかを示す。
論文 参考訳(メタデータ) (2020-08-06T17:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。