論文の概要: Improving Convergence for Quantum Variational Classifiers using Weight
Re-Mapping
- arxiv url: http://arxiv.org/abs/2212.14807v1
- Date: Thu, 22 Dec 2022 13:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 04:14:33.471415
- Title: Improving Convergence for Quantum Variational Classifiers using Weight
Re-Mapping
- Title(参考訳): 重み再マッピングによる量子変分器の収束性向上
- Authors: Michael K\"olle, Alessandro Giovagnoli, Jonas Stein, Maximilian
Balthasar Mansky, Julian Hager and Claudia Linnhoff-Popien
- Abstract要約: 近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。
重みを2pi$の間隔に不明瞭にマッピングするために、VQCの重み再マッピングを導入する。
修正されていないウェイトを用いて、Wineデータセットの重量再マッピングにより、テスト精度が10%向上したことを実証した。
- 参考スコア(独自算出の注目度): 60.086820254217336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, quantum machine learning has seen a substantial increase in
the use of variational quantum circuits (VQCs). VQCs are inspired by artificial
neural networks, which achieve extraordinary performance in a wide range of AI
tasks as massively parameterized function approximators. VQCs have already
demonstrated promising results, for example, in generalization and the
requirement for fewer parameters to train, by utilizing the more robust
algorithmic toolbox available in quantum computing. A VQCs' trainable
parameters or weights are usually used as angles in rotational gates and
current gradient-based training methods do not account for that. We introduce
weight re-mapping for VQCs, to unambiguously map the weights to an interval of
length $2\pi$, drawing inspiration from traditional ML, where data rescaling,
or normalization techniques have demonstrated tremendous benefits in many
circumstances. We employ a set of five functions and evaluate them on the Iris
and Wine datasets using variational classifiers as an example. Our experiments
show that weight re-mapping can improve convergence in all tested settings.
Additionally, we were able to demonstrate that weight re-mapping increased test
accuracy for the Wine dataset by $10\%$ over using unmodified weights.
- Abstract(参考訳): 近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。
VQCは、膨大なパラメータ化関数近似器として、幅広いAIタスクで素晴らしいパフォーマンスを達成する人工知能ニューラルネットワークにインスパイアされている。
vqcsはすでに、量子コンピューティングで利用可能なより堅牢なアルゴリズムツールボックスを利用することで、一般化やトレーニングするパラメータの少ない要件など、有望な結果を示している。
vqcsのトレーニング可能なパラメータや重みは通常、回転ゲートの角度として使われ、現在の勾配に基づく訓練方法ではそうはならない。
我々は,vqcsの重み再マッピングを導入し,その重みを2\pi$の間隔にあいまいにマッピングし,データ再スケーリングや正規化技術が多くの状況において大きなメリットを実証した従来のmlからインスピレーションを得た。
変分分類器を例として,5つの関数を例に挙げ,アイリスとワインのデータセット上で評価する。
実験の結果, 重量再マッピングは全試験条件における収束性を向上させることがわかった。
さらに,無修正の重みを用いて,ワインデータセットのテスト精度を10~%向上させることを実証した。
関連論文リスト
- Leveraging Pre-Trained Neural Networks to Enhance Machine Learning with Variational Quantum Circuits [48.33631905972908]
我々は、事前学習されたニューラルネットワークを用いて変分量子回路(VQC)を強化する革新的なアプローチを導入する。
この手法は近似誤差をキュービット数から効果的に分離し、制約条件の必要性を除去する。
我々の結果はヒトゲノム解析などの応用にまで拡張され、我々のアプローチの幅広い適用性を示している。
論文 参考訳(メタデータ) (2024-11-13T12:03:39Z) - Towards Accurate Post-Training Quantization of Vision Transformers via Error Reduction [48.740630807085566]
ビジョントランスフォーマー(ViT)のPTQ(Post-training Quantization)は,学術的,産業的にも注目されている。
現在の方法は、量子化された重みとアクティベーションの間の複雑な相互作用を考慮できないため、量子化エラーと準最適性能をもたらす。
本稿では,活性化と重み量子化による量子化誤差を逐次低減する2段階PTQ法であるERQを提案する。
論文 参考訳(メタデータ) (2024-07-09T12:06:03Z) - Post-Training Quantization for Re-parameterization via Coarse & Fine
Weight Splitting [13.270381125055275]
本稿では,重みの量子化誤差を低減するために,粗大かつ微細な重み分割法(CFWS)を提案する。
我々は、活性化のための最適な量子化尺度を決定するために改良されたKLメトリックを開発した。
例えば、量子化されたRepVGG-A1モデルは、わずか0.3%の精度損失を示す。
論文 参考訳(メタデータ) (2023-12-17T02:31:20Z) - Weight Re-Mapping for Variational Quantum Algorithms [54.854986762287126]
変動量子回路(VQC)における重み付けの考え方を紹介する。
我々は,8つの分類データセットに対する影響を評価するために,7つの異なる重み再マッピング関数を用いる。
以上の結果から,重量再マッピングによりVQCの収束速度が向上することが示唆された。
論文 参考訳(メタデータ) (2023-06-09T09:42:21Z) - RepQ-ViT: Scale Reparameterization for Post-Training Quantization of
Vision Transformers [2.114921680609289]
視覚変換器のための新しいPTQフレームワークRepQ-ViTを提案する。
RepQ-ViTは量子化と推論プロセスを分離する。
既存の強力なベースラインを上回り、ViTの4ビットPTQの精度を有効レベルまで向上させることができる。
論文 参考訳(メタデータ) (2022-12-16T02:52:37Z) - QOC: Quantum On-Chip Training with Parameter Shift and Gradient Pruning [18.939312562621634]
パラメータシフトを用いた実践的PQCトレーニングの初回実験であるQOCについて述べる。
確率的勾配プルーニング(probabilistic gradient pruning)を提案する。
その結果,2クラス,4クラスの画像分類作業において,オンチップトレーニングが90%以上,60%以上の精度で達成できることが示唆された。
論文 参考訳(メタデータ) (2022-02-26T22:27:36Z) - Tensor Ring Parametrized Variational Quantum Circuits for Large Scale
Quantum Machine Learning [28.026962110693695]
本稿では,テンソルリング表現を用いて回路内の量子状態を圧縮するアルゴリズムを提案する。
ストレージと計算時間は、正確なシミュレーションアルゴリズムによる指数的な増加と比較して、キュービット数とレイヤー数で線形に増加する。
We achieve a test accuracy of 83.33% on Iris dataset and a maximum of 99.30% and 76.31% on binary and ternary classification of MNIST dataset。
論文 参考訳(メタデータ) (2022-01-21T19:54:57Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Characterizing the loss landscape of variational quantum circuits [77.34726150561087]
本稿では,VQCの損失関数のヘシアンを計算する方法を紹介する。
この情報がどのように解釈され、従来のニューラルネットワークと比較されるかを示す。
論文 参考訳(メタデータ) (2020-08-06T17:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。