論文の概要: Toward Physically Realizable Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2203.12092v1
- Date: Tue, 22 Mar 2022 23:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 10:07:16.247911
- Title: Toward Physically Realizable Quantum Neural Networks
- Title(参考訳): 物理的に実現可能な量子ニューラルネットワークを目指して
- Authors: Mohsen Heidari, Ananth Grama, Wojciech Szpankowski
- Abstract要約: 量子ニューラルネットワーク(QNN)の現在のソリューションは、スケーラビリティに関する課題を提起している。
QNNの指数的状態空間は、トレーニング手順のスケーラビリティに課題をもたらす。
本稿では量子パーセプトロンの転送関数の帯域制限フーリエ展開に依存するQNNの新しいモデルを提案する。
- 参考スコア(独自算出の注目度): 15.018259942339446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been significant recent interest in quantum neural networks (QNNs),
along with their applications in diverse domains. Current solutions for QNNs
pose significant challenges concerning their scalability, ensuring that the
postulates of quantum mechanics are satisfied and that the networks are
physically realizable. The exponential state space of QNNs poses challenges for
the scalability of training procedures. The no-cloning principle prohibits
making multiple copies of training samples, and the measurement postulates lead
to non-deterministic loss functions. Consequently, the physical realizability
and efficiency of existing approaches that rely on repeated measurement of
several copies of each sample for training QNNs are unclear. This paper
presents a new model for QNNs that relies on band-limited Fourier expansions of
transfer functions of quantum perceptrons (QPs) to design scalable training
procedures. This training procedure is augmented with a randomized quantum
stochastic gradient descent technique that eliminates the need for sample
replication. We show that this training procedure converges to the true minima
in expectation, even in the presence of non-determinism due to quantum
measurement. Our solution has a number of important benefits: (i) using QPs
with concentrated Fourier power spectrum, we show that the training procedure
for QNNs can be made scalable; (ii) it eliminates the need for resampling, thus
staying consistent with the no-cloning rule; and (iii) enhanced data efficiency
for the overall training process since each data sample is processed once per
epoch. We present a detailed theoretical foundation for our models and methods'
scalability, accuracy, and data efficiency. We also validate the utility of our
approach through a series of numerical experiments.
- Abstract(参考訳): 近年、量子ニューラルネットワーク(QNN)への関心が高まり、様々な分野にも応用されている。
現在のqnnのソリューションはスケーラビリティに重大な課題をもたらし、量子力学の仮定が満たされ、ネットワークが物理的に実現可能であることを保証する。
QNNの指数的状態空間は、トレーニング手順のスケーラビリティに課題をもたらす。
非閉鎖原理は、複数のトレーニングサンプルの作成を禁止し、測定の仮定は非決定論的損失関数につながる。
その結果、qnnを訓練するために各サンプルの繰り返し測定に依存する既存のアプローチの物理的実現可能性と効率は明らかでない。
本稿では、量子パーセプトロン(QP)の転送関数の帯域制限されたフーリエ展開を利用してスケーラブルなトレーニング手順を設計するQNNの新しいモデルを提案する。
このトレーニング手順はランダム化量子確率勾配降下法で拡張され、サンプル複製の必要性がなくなる。
このトレーニング手順は、量子測定による非決定性の存在下でも、期待の真の最小値に収束する。
私たちのソリューションには、多くの重要な利点があります。
i) フーリエパワースペクトルを集中したQPを用いて、QNNのトレーニング手順をスケーラブルにすることができることを示す。
(二)再サンプリングの必要性を排除し、非閉鎖規則と整合性を保つこと。
(iii)各データサンプルはエポック毎に1回処理されるため、トレーニングプロセス全体のデータ効率が向上する。
我々は、モデルとメソッドのスケーラビリティ、正確性、データ効率に関する詳細な理論基盤を提示する。
また,一連の数値実験により,本手法の有効性を検証した。
関連論文リスト
- Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Power and limitations of single-qubit native quantum neural networks [5.526775342940154]
量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
量子ニューラルネットワークのデータ再アップロードの表現能力に関する理論的枠組みを定式化する。
論文 参考訳(メタデータ) (2022-05-16T17:58:27Z) - Exponentially Many Local Minima in Quantum Neural Networks [9.442139459221785]
量子ニューラルネットワーク(QNN)は、古典的ニューラルネットワークと同じような約束のため、重要な量子アプリケーションである。
我々は,QNNの損失関数のランドスケープを定量的に調査し,トレーニング用に単純だが極めて難しいQNNインスタンスのクラスを同定する。
我々は、我々の構成が、典型的な勾配ベースの回路で実際に難しい事例となることを実証的に確認する。
論文 参考訳(メタデータ) (2021-10-06T03:23:44Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Quantum Generative Training Using R\'enyi Divergences [0.22559617939136506]
量子ニューラルネットワーク(QNN)は、量子アルゴリズムを作成するためのフレームワークである。
QNN開発における大きな課題は、バレン高原として知られる測定現象の集中である。
非有界損失関数は既存のno-go結果を回避することができることを示す。
論文 参考訳(メタデータ) (2021-06-17T14:50:53Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Recurrence of Optimum for Training Weight and Activation Quantized
Networks [4.103701929881022]
低精度の重みとアクティベーションを備えたディープラーニングモデルのトレーニングには、必要な最適化タスクが伴う。
ネットワーク量子化の性質を克服する方法を紹介します。
また,訓練用量子化深層ネットワークにおける重み進化の繰り返し現象の数値的証拠を示す。
論文 参考訳(メタデータ) (2020-12-10T09:14:43Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。