論文の概要: Toward Physically Realizable Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2203.12092v1
- Date: Tue, 22 Mar 2022 23:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 10:07:16.247911
- Title: Toward Physically Realizable Quantum Neural Networks
- Title(参考訳): 物理的に実現可能な量子ニューラルネットワークを目指して
- Authors: Mohsen Heidari, Ananth Grama, Wojciech Szpankowski
- Abstract要約: 量子ニューラルネットワーク(QNN)の現在のソリューションは、スケーラビリティに関する課題を提起している。
QNNの指数的状態空間は、トレーニング手順のスケーラビリティに課題をもたらす。
本稿では量子パーセプトロンの転送関数の帯域制限フーリエ展開に依存するQNNの新しいモデルを提案する。
- 参考スコア(独自算出の注目度): 15.018259942339446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been significant recent interest in quantum neural networks (QNNs),
along with their applications in diverse domains. Current solutions for QNNs
pose significant challenges concerning their scalability, ensuring that the
postulates of quantum mechanics are satisfied and that the networks are
physically realizable. The exponential state space of QNNs poses challenges for
the scalability of training procedures. The no-cloning principle prohibits
making multiple copies of training samples, and the measurement postulates lead
to non-deterministic loss functions. Consequently, the physical realizability
and efficiency of existing approaches that rely on repeated measurement of
several copies of each sample for training QNNs are unclear. This paper
presents a new model for QNNs that relies on band-limited Fourier expansions of
transfer functions of quantum perceptrons (QPs) to design scalable training
procedures. This training procedure is augmented with a randomized quantum
stochastic gradient descent technique that eliminates the need for sample
replication. We show that this training procedure converges to the true minima
in expectation, even in the presence of non-determinism due to quantum
measurement. Our solution has a number of important benefits: (i) using QPs
with concentrated Fourier power spectrum, we show that the training procedure
for QNNs can be made scalable; (ii) it eliminates the need for resampling, thus
staying consistent with the no-cloning rule; and (iii) enhanced data efficiency
for the overall training process since each data sample is processed once per
epoch. We present a detailed theoretical foundation for our models and methods'
scalability, accuracy, and data efficiency. We also validate the utility of our
approach through a series of numerical experiments.
- Abstract(参考訳): 近年、量子ニューラルネットワーク(QNN)への関心が高まり、様々な分野にも応用されている。
現在のqnnのソリューションはスケーラビリティに重大な課題をもたらし、量子力学の仮定が満たされ、ネットワークが物理的に実現可能であることを保証する。
QNNの指数的状態空間は、トレーニング手順のスケーラビリティに課題をもたらす。
非閉鎖原理は、複数のトレーニングサンプルの作成を禁止し、測定の仮定は非決定論的損失関数につながる。
その結果、qnnを訓練するために各サンプルの繰り返し測定に依存する既存のアプローチの物理的実現可能性と効率は明らかでない。
本稿では、量子パーセプトロン(QP)の転送関数の帯域制限されたフーリエ展開を利用してスケーラブルなトレーニング手順を設計するQNNの新しいモデルを提案する。
このトレーニング手順はランダム化量子確率勾配降下法で拡張され、サンプル複製の必要性がなくなる。
このトレーニング手順は、量子測定による非決定性の存在下でも、期待の真の最小値に収束する。
私たちのソリューションには、多くの重要な利点があります。
i) フーリエパワースペクトルを集中したQPを用いて、QNNのトレーニング手順をスケーラブルにすることができることを示す。
(二)再サンプリングの必要性を排除し、非閉鎖規則と整合性を保つこと。
(iii)各データサンプルはエポック毎に1回処理されるため、トレーニングプロセス全体のデータ効率が向上する。
我々は、モデルとメソッドのスケーラビリティ、正確性、データ効率に関する詳細な理論基盤を提示する。
また,一連の数値実験により,本手法の有効性を検証した。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Training-efficient density quantum machine learning [2.918930150557355]
量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Power and limitations of single-qubit native quantum neural networks [5.526775342940154]
量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
量子ニューラルネットワークのデータ再アップロードの表現能力に関する理論的枠組みを定式化する。
論文 参考訳(メタデータ) (2022-05-16T17:58:27Z) - Exponentially Many Local Minima in Quantum Neural Networks [9.442139459221785]
量子ニューラルネットワーク(QNN)は、古典的ニューラルネットワークと同じような約束のため、重要な量子アプリケーションである。
我々は,QNNの損失関数のランドスケープを定量的に調査し,トレーニング用に単純だが極めて難しいQNNインスタンスのクラスを同定する。
我々は、我々の構成が、典型的な勾配ベースの回路で実際に難しい事例となることを実証的に確認する。
論文 参考訳(メタデータ) (2021-10-06T03:23:44Z) - Quantum Generative Training Using R\'enyi Divergences [0.22559617939136506]
量子ニューラルネットワーク(QNN)は、量子アルゴリズムを作成するためのフレームワークである。
QNN開発における大きな課題は、バレン高原として知られる測定現象の集中である。
非有界損失関数は既存のno-go結果を回避することができることを示す。
論文 参考訳(メタデータ) (2021-06-17T14:50:53Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Recurrence of Optimum for Training Weight and Activation Quantized
Networks [4.103701929881022]
低精度の重みとアクティベーションを備えたディープラーニングモデルのトレーニングには、必要な最適化タスクが伴う。
ネットワーク量子化の性質を克服する方法を紹介します。
また,訓練用量子化深層ネットワークにおける重み進化の繰り返し現象の数値的証拠を示す。
論文 参考訳(メタデータ) (2020-12-10T09:14:43Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。