論文の概要: Trade-off between Gradient Measurement Efficiency and Expressivity in Deep Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2406.18316v2
- Date: Wed, 28 Aug 2024 09:42:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 20:38:57.889925
- Title: Trade-off between Gradient Measurement Efficiency and Expressivity in Deep Quantum Neural Networks
- Title(参考訳): 深部量子ニューラルネットワークにおける勾配測定効率と表現率のトレードオフ
- Authors: Koki Chinzei, Shinichiro Yamano, Quoc Hoan Tran, Yasuhiro Endo, Hirotaka Oshima,
- Abstract要約: 量子ニューラルネットワーク(QNN)は、実用的な量子優位性を達成するために効率的なトレーニングアルゴリズムを必要とする。
一般的なQNNには効率的な勾配測定アルゴリズムが欠けており、スケーラブルなQNNを実現するための基本的で実践的な課題となっている。
本稿では, 安定器-論理積アンサッツ (SLPA) と呼ばれる一般QNNアンサッツを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum neural networks (QNNs) require an efficient training algorithm to achieve practical quantum advantages. A promising approach is the use of gradient-based optimization algorithms, where gradients are estimated through quantum measurements. However, general QNNs lack an efficient gradient measurement algorithm, which poses a fundamental and practical challenge to realizing scalable QNNs. In this work, we rigorously prove a trade-off between gradient measurement efficiency, defined as the mean number of simultaneously measurable gradient components, and expressivity in a wide class of deep QNNs, elucidating the theoretical limits and possibilities of efficient gradient estimation. This trade-off implies that a more expressive QNN requires a higher measurement cost in gradient estimation, whereas we can increase gradient measurement efficiency by reducing the QNN expressivity to suit a given task. We further propose a general QNN ansatz called the stabilizer-logical product ansatz (SLPA), which can reach the upper limit of the trade-off inequality by leveraging the symmetric structure of the quantum circuit. In learning an unknown symmetric function, the SLPA drastically reduces the quantum resources required for training while maintaining accuracy and trainability compared to a well-designed symmetric circuit based on the parameter-shift method. Our results not only reveal a theoretical understanding of efficient training in QNNs but also provide a standard and broadly applicable efficient QNN design.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、実用的な量子優位性を達成するために効率的なトレーニングアルゴリズムを必要とする。
有望なアプローチは勾配に基づく最適化アルゴリズムを使うことであり、量子的測定によって勾配を推定する。
しかし、QNNには効率的な勾配測定アルゴリズムが欠けており、スケーラブルなQNNを実現するための基本的で実践的な課題となっている。
本研究では, 同時に測定可能な勾配成分の平均値として定義される勾配測定効率と, 広範囲の深部QNNにおける表現率とのトレードオフを厳密に証明し, 効率的な勾配推定の理論的限界と可能性を明らかにする。
このトレードオフは、より表現力の高いQNNは勾配推定において高い測定コストを必要とすることを意味し、一方、与えられたタスクに適合するようにQNN表現率を減少させることで勾配測定効率を向上させることができることを示している。
さらに、量子回路の対称構造を利用して、トレードオフ不等式の上限に達することのできる安定化器-論理積アンサッツ(SLPA)と呼ばれる一般的なQNNアンサッツを提案する。
未知対称関数の学習において、SLPAはパラメータシフト法に基づくよく設計された対称回路と比較して、精度と訓練性を維持しながら、トレーニングに必要な量子リソースを劇的に削減する。
この結果から,QNNにおける効率的なトレーニングの理論的理解だけでなく,標準化され,広く適用可能なQNN設計も明らかにした。
関連論文リスト
- A Novel Approach to Reduce Derivative Costs in Variational Quantum Algorithms [0.0]
QNDM(Quantum Non-Demolition Measurement)は、量子可観測体の勾配やヘッセンを効率的に推定する。
これは、量子オブザーバブルに関連するコスト関数を最小限にしたい場合、重要なステップであり、リソース要求タスクです。
詳細な分析では,QNDM手法の実装に必要なすべてのリソースを一定精度で説明し,現在の最先端手法と比較する。
我々の研究の大きな成果は、補足材料citeqndm_gradientで提供されるPythonのQNDMメソッドの実装である。
論文 参考訳(メタデータ) (2024-04-02T19:06:01Z) - Splitting and Parallelizing of Quantum Convolutional Neural Networks for
Learning Translationally Symmetric Data [0.0]
分割並列化QCNN(sp-QCNN)と呼ばれる新しいアーキテクチャを提案する。
量子回路を翻訳対称性に基づいて分割することにより、sp-QCNNはキュービット数を増やすことなく従来のQCNNを実質的に並列化することができる。
本稿では,sp-QCNNが従来のQCNNと同等の分類精度を達成でき,必要な測定資源を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-06-12T18:00:08Z) - Scaling Limits of Quantum Repeater Networks [62.75241407271626]
量子ネットワーク(QN)は、セキュアな通信、強化されたセンシング、効率的な分散量子コンピューティングのための有望なプラットフォームである。
量子状態の脆弱な性質のため、これらのネットワークはスケーラビリティの観点から大きな課題に直面している。
本稿では,量子リピータネットワーク(QRN)のスケーリング限界について解析する。
論文 参考訳(メタデータ) (2023-05-15T14:57:01Z) - QVIP: An ILP-based Formal Verification Approach for Quantized Neural
Networks [14.766917269393865]
量子化は、浮動小数点数に匹敵する精度でニューラルネットワークのサイズを減らすための有望な技術として登場した。
そこで本研究では,QNNに対する新しい,効率的な形式検証手法を提案する。
特に、QNNの検証問題を整数線形制約の解法に還元する符号化を初めて提案する。
論文 参考訳(メタデータ) (2022-12-10T03:00:29Z) - Symmetric Pruning in Quantum Neural Networks [111.438286016951]
量子ニューラルネットワーク(QNN)は、現代の量子マシンの力を発揮する。
ハンドクラフト対称アンサーゼを持つQNNは、一般に非対称アンサーゼを持つものよりも訓練性が高い。
本稿では,QNNのグローバル最適収束を定量化するために,実効量子ニューラルネットワークカーネル(EQNTK)を提案する。
論文 参考訳(メタデータ) (2022-08-30T08:17:55Z) - On-chip QNN: Towards Efficient On-Chip Training of Quantum Neural
Networks [21.833693982056896]
そこで本研究では,パラメータシフトを用いた実践的なQNNトレーニングの実証実験であるOn-chip QNNを提案する。
確率的勾配プルーニング(probabilistic gradient pruning)を提案する。
その結果,2クラス,4クラスの画像分類作業において,チップ上でのトレーニングは90%以上,60%以上の精度で達成できた。
論文 参考訳(メタデータ) (2022-02-26T22:27:36Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - A Statistical Framework for Low-bitwidth Training of Deep Neural
Networks [70.77754244060384]
フル量子化トレーニング(FQT)は、ニューラルネットワークモデルのアクティベーション、重み、勾配を定量化することで、低ビット幅のハードウェアを使用する。
FQTの最大の課題は、特に勾配量子化が収束特性にどのように影響するかという理論的な理解の欠如である。
論文 参考訳(メタデータ) (2020-10-27T13:57:33Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。