論文の概要: Exponentially Many Local Minima in Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2110.02479v1
- Date: Wed, 6 Oct 2021 03:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:13:18.222575
- Title: Exponentially Many Local Minima in Quantum Neural Networks
- Title(参考訳): 量子ニューラルネットワークにおける指数的に多くの局所最小値
- Authors: Xuchen You, Xiaodi Wu
- Abstract要約: 量子ニューラルネットワーク(QNN)は、古典的ニューラルネットワークと同じような約束のため、重要な量子アプリケーションである。
我々は,QNNの損失関数のランドスケープを定量的に調査し,トレーニング用に単純だが極めて難しいQNNインスタンスのクラスを同定する。
我々は、我々の構成が、典型的な勾配ベースの回路で実際に難しい事例となることを実証的に確認する。
- 参考スコア(独自算出の注目度): 9.442139459221785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Neural Networks (QNNs), or the so-called variational quantum
circuits, are important quantum applications both because of their similar
promises as classical neural networks and because of the feasibility of their
implementation on near-term intermediate-size noisy quantum machines (NISQ).
However, the training task of QNNs is challenging and much less understood. We
conduct a quantitative investigation on the landscape of loss functions of QNNs
and identify a class of simple yet extremely hard QNN instances for training.
Specifically, we show for typical under-parameterized QNNs, there exists a
dataset that induces a loss function with the number of spurious local minima
depending exponentially on the number of parameters. Moreover, we show the
optimality of our construction by providing an almost matching upper bound on
such dependence. While local minima in classical neural networks are due to
non-linear activations, in quantum neural networks local minima appear as a
result of the quantum interference phenomenon. Finally, we empirically confirm
that our constructions can indeed be hard instances in practice with typical
gradient-based optimizers, which demonstrates the practical value of our
findings.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN、Quantum Neural Networks)またはいわゆる変動量子回路は、古典的ニューラルネットワークと同様の約束と、短期的な中規模ノイズ量子マシン(NISQ)の実装の可能性の両方から重要な量子応用である。
しかし、QNNのトレーニングタスクは困難であり、あまり理解されていない。
我々は,QNNの損失関数のランドスケープを定量的に調査し,トレーニング用に単純だが極めて難しいQNNインスタンスのクラスを特定する。
具体的には,パラメータ数に比例して局所最小値が指数関数的に増加するような損失関数を誘導するデータセットが存在することを示す。
さらに、そのような依存にほぼ一致する上限を与えることにより、構築の最適性を示す。
古典的ニューラルネットワークの局所ミニマは非線形活性化によるものであるが、量子ニューラルネットワークの局所ミニマは量子干渉現象の結果として現れる。
最後に、我々の構造は、典型的な勾配に基づく最適化器で実際に難しい事例になり得ることを実証的に確認し、その結果の実用的価値を示す。
関連論文リスト
- Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Statistical Analysis of Quantum State Learning Process in Quantum Neural
Networks [4.852613028421959]
量子ニューラルネットワーク(QNN)は、短期的な量子優位を追求する上で有望なフレームワークである。
高忠実な初期状態から始まるQNNを用いて未知の量子状態を学ぶためのノーゴー定理を開発する。
論文 参考訳(メタデータ) (2023-09-26T14:54:50Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Power and limitations of single-qubit native quantum neural networks [5.526775342940154]
量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
量子ニューラルネットワークのデータ再アップロードの表現能力に関する理論的枠組みを定式化する。
論文 参考訳(メタデータ) (2022-05-16T17:58:27Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。