論文の概要: Chaos and Complexity from Quantum Neural Network: A study with Diffusion
Metric in Machine Learning
- arxiv url: http://arxiv.org/abs/2011.07145v2
- Date: Tue, 16 Mar 2021 14:36:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 01:29:11.192009
- Title: Chaos and Complexity from Quantum Neural Network: A study with Diffusion
Metric in Machine Learning
- Title(参考訳): 量子ニューラルネットワークのカオスと複雑性:機械学習における拡散メトリックを用いた研究
- Authors: Sayantan Choudhury, Ankan Dutta and Debisree Ray
- Abstract要約: 量子ニューラルネットワーク(QNN)の機械学習力学における量子カオス現象と複雑性について検討する。
統計的および微分幾何学的手法を用いてQNNの学習理論を研究する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, our prime objective is to study the phenomena of quantum chaos
and complexity in the machine learning dynamics of Quantum Neural Network
(QNN). A Parameterized Quantum Circuits (PQCs) in the hybrid quantum-classical
framework is introduced as a universal function approximator to perform
optimization with Stochastic Gradient Descent (SGD). We employ a statistical
and differential geometric approach to study the learning theory of QNN. The
evolution of parametrized unitary operators is correlated with the trajectory
of parameters in the Diffusion metric. We establish the parametrized version of
Quantum Complexity and Quantum Chaos in terms of physically relevant
quantities, which are not only essential in determining the stability, but also
essential in providing a very significant lower bound to the generalization
capability of QNN. We explicitly prove that when the system executes limit
cycles or oscillations in the phase space, the generalization capability of QNN
is maximized. Finally, we have determined the generalization capability bound
on the variance of parameters of the QNN in a steady state condition using
Cauchy Schwartz Inequality.
- Abstract(参考訳): 本研究では,量子ニューラルネットワーク(QNN)の機械学習力学において,量子カオスと複雑性の現象を研究することを目的とする。
SGD(Stochastic Gradient Descent)を用いて最適化を行う汎用関数近似器として、ハイブリッド量子古典フレームワークにおけるパラメータ化量子回路(PQC)を導入する。
統計的および微分幾何学的手法を用いてQNNの学習理論を研究する。
パラメータ化されたユニタリ作用素の進化は拡散計量のパラメータの軌跡と相関する。
我々は、量子複雑性と量子カオスのパラメトリズドバージョンを物理的に関連する量として確立するが、これは安定性を決定するのに必須であるだけでなく、qnnの一般化能力に非常に重要な下限を与えるのにも不可欠である。
QNNの一般化能力は, 位相空間における極限周期や振動の実行時において最大化可能であることを明確に証明する。
最後に、コーシー・シュワルツの不等式を用いて、定常状態におけるQNNのパラメータの分散に縛られる一般化能力を決定した。
関連論文リスト
- Optimizer-Dependent Generalization Bound for Quantum Neural Networks [5.641998714611475]
量子ニューラルネットワーク(QNN)は、量子機械学習における複雑なタスクに対処する上で重要な役割を果たす。
学習アルゴリズム安定性のレンズによるQNNの一般化特性について検討する。
我々の研究は量子機械学習にQNNを適用するための実践的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-27T17:22:34Z) - Stability and Generalization of Quantum Neural Networks [6.842224049271109]
量子ニューラルネットワーク(QNN)は、急速に成長する量子機械学習分野において、新興技術として重要な役割を果たす。
我々は,古典的学習理論,すなわちアルゴリズム的安定性の先進的なツールを用いて,QNNの一般化を研究する。
論文 参考訳(メタデータ) (2025-01-22T09:12:18Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Analyzing Convergence in Quantum Neural Networks: Deviations from Neural
Tangent Kernels [20.53302002578558]
量子ニューラルネットワーク(QNN)は、近未来のノイズ中間スケール量子(NISQ)コンピュータで効率的に実装可能なパラメータ化マッピングである。
既存の実証的および理論的研究にもかかわらず、QNNトレーニングの収束は完全には理解されていない。
論文 参考訳(メタデータ) (2023-03-26T22:58:06Z) - The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for
Deep Quantum Machine Learning [52.77024349608834]
古典的なディープニューラルネットワークの量子アナログを構築することは、量子コンピューティングにおける根本的な課題である。
鍵となる問題は、古典的なディープラーニングの本質的な非線形性にどのように対処するかである。
我々は、深層機械学習のこれらの側面を複製できる量子機械学習の定式化であるQuantum Path Kernelを紹介する。
論文 参考訳(メタデータ) (2022-12-22T16:06:24Z) - Implementation and Learning of Quantum Hidden Markov Models [0.0]
量子隠れマルコフモデル(QHMM)に対する一元的パラメータ化と効率的な学習アルゴリズムを提案する。
量子チャネルのよりリッチなダイナミクスを活用することで、従来のものに比べて量子発生器の効率が向上することを示した。
我々は,任意のQHMMを,中間回路計測による量子回路を用いて効率的に実装し,シミュレーションすることができることを示す。
論文 参考訳(メタデータ) (2022-12-07T17:25:02Z) - Symmetric Pruning in Quantum Neural Networks [111.438286016951]
量子ニューラルネットワーク(QNN)は、現代の量子マシンの力を発揮する。
ハンドクラフト対称アンサーゼを持つQNNは、一般に非対称アンサーゼを持つものよりも訓練性が高い。
本稿では,QNNのグローバル最適収束を定量化するために,実効量子ニューラルネットワークカーネル(EQNTK)を提案する。
論文 参考訳(メタデータ) (2022-08-30T08:17:55Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。