論文の概要: Quantum Generative Training Using R\'enyi Divergences
- arxiv url: http://arxiv.org/abs/2106.09567v1
- Date: Thu, 17 Jun 2021 14:50:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-26 10:48:44.757346
- Title: Quantum Generative Training Using R\'enyi Divergences
- Title(参考訳): R\'enyi Divergences を用いた量子生成トレーニング
- Authors: Maria Kieferova and Ortiz Marrero Carlos and Nathan Wiebe
- Abstract要約: 量子ニューラルネットワーク(QNN)は、量子アルゴリズムを作成するためのフレームワークである。
QNN開発における大きな課題は、バレン高原として知られる測定現象の集中である。
非有界損失関数は既存のno-go結果を回避することができることを示す。
- 参考スコア(独自算出の注目度): 0.22559617939136506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum neural networks (QNNs) are a framework for creating quantum
algorithms that promises to combine the speedups of quantum computation with
the widespread successes of machine learning. A major challenge in QNN
development is a concentration of measure phenomenon known as a barren plateau
that leads to exponentially small gradients for a range of QNNs models. In this
work, we examine the assumptions that give rise to barren plateaus and show
that an unbounded loss function can circumvent the existing no-go results. We
propose a training algorithm that minimizes the maximal R\'enyi divergence of
order two and present techniques for gradient computation. We compute the
closed form of the gradients for Unitary QNNs and Quantum Boltzmann Machines
and provide sufficient conditions for the absence of barren plateaus in these
models. We demonstrate our approach in two use cases: thermal state learning
and Hamiltonian learning. In our numerical experiments, we observed rapid
convergence of our training loss function and frequently archived a $99\%$
average fidelity in fewer than $100$ epochs.
- Abstract(参考訳): 量子ニューラルネットワーク(Quantum Neural Network, QNN)は、量子計算のスピードアップと機械学習の広範な成功を組み合わせた量子アルゴリズムを作成するためのフレームワークである。
QNNの発展における大きな課題は、様々なQNNモデルに対して指数的に小さな勾配をもたらすバレン高原として知られる測定現象の集中である。
本研究では,不規則な高原を生じさせる仮定を検証し,非有界な損失関数が既存のno-go結果を回避できることを示す。
本稿では,次数2の最大R'enyi分散を最小化する学習アルゴリズムを提案し,勾配計算の手法を提案する。
単位QNNと量子ボルツマンマシンの勾配の閉形式を計算し、これらのモデルにバレン高原が存在しないための十分な条件を提供する。
我々は、熱状態学習とハミルトン学習の2つのユースケースでアプローチを実証する。
私たちの数値実験では、トレーニング損失関数の急速な収束を観察し、100ドルのエポック未満で99ドルの平均忠実度を頻繁にアーカイブしました。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Toward Physically Realizable Quantum Neural Networks [15.018259942339446]
量子ニューラルネットワーク(QNN)の現在のソリューションは、スケーラビリティに関する課題を提起している。
QNNの指数的状態空間は、トレーニング手順のスケーラビリティに課題をもたらす。
本稿では量子パーセプトロンの転送関数の帯域制限フーリエ展開に依存するQNNの新しいモデルを提案する。
論文 参考訳(メタデータ) (2022-03-22T23:03:32Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Absence of Barren Plateaus in Quantum Convolutional Neural Networks [0.0]
量子畳み込みニューラルネットワーク(QCNN)が提案されている。
我々はQCNNアーキテクチャのパラメータの勾配スケーリングを厳格に分析する。
論文 参考訳(メタデータ) (2020-11-05T16:46:13Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。