論文の概要: Introducing Reduced-Width QNNs, an AI-inspired Ansatz Design Pattern
- arxiv url: http://arxiv.org/abs/2306.05047v3
- Date: Mon, 8 Jan 2024 09:33:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 23:33:37.577725
- Title: Introducing Reduced-Width QNNs, an AI-inspired Ansatz Design Pattern
- Title(参考訳): AIにインスパイアされたAnsatzデザインパターンであるReduceed-Width QNNの導入
- Authors: Jonas Stein, Tobias Rohe, Francesco Nappi, Julian Hager, David Bucher,
Maximilian Zorn, Michael K\"olle, Claudia Linnhoff-Popien
- Abstract要約: 変分量子アルゴリズムは、初めて産業的に関係のある量子優位性を得る最も有望な候補の1つである。
古典的ニューラルネットワーク(ANN)としてアナログ設定で使用される場合、量子ニューラルネットワーク(QNN)と呼ばれることが多い。
本稿では,近年のQNNにおけるドロップアウト正規化解析の結果に動機づけられた小型回路アンサッツの設計を提案する。
- 参考スコア(独自算出の注目度): 3.757262277494307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Quantum Algorithms are one of the most promising candidates to
yield the first industrially relevant quantum advantage. Being capable of
arbitrary function approximation, they are often referred to as Quantum Neural
Networks (QNNs) when being used in analog settings as classical Artificial
Neural Networks (ANNs). Similar to the early stages of classical machine
learning, known schemes for efficient architectures of these networks are
scarce. Exploring beyond existing design patterns, we propose a reduced-width
circuit ansatz design, which is motivated by recent results gained in the
analysis of dropout regularization in QNNs. More precisely, this exploits the
insight, that the gates of overparameterized QNNs can be pruned substantially
until their expressibility decreases. The results of our case study show, that
the proposed design pattern can significantly reduce training time while
maintaining the same result quality as the standard "full-width" design in the
presence of noise.
- Abstract(参考訳): 変分量子アルゴリズムは、最初に工業的に関連する量子優位をもたらす最も有望な候補の1つである。
任意の関数近似が可能であるため、古典的ニューラルネットワーク(ANN)のようなアナログ設定で使用される場合、量子ニューラルネットワーク(QNN)と呼ばれることが多い。
古典的機械学習の初期と同様に、これらのネットワークの効率的なアーキテクチャのための既知のスキームは少ない。
既存の設計パターンを超えて、近年のQNNにおけるドロップアウト正規化解析の結果に動機づけられた小型回路アンザッツ設計を提案する。
より正確には、過度にパラメータ化されたQNNのゲートは、その表現性が低下するまで大きく刈り取ることができるという洞察を活用できる。
ケーススタディの結果,提案した設計パターンは,ノイズの存在下での標準の「フル幅」設計と同じ品質を維持しつつ,トレーニング時間を著しく短縮できることがわかった。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Exploiting the equivalence between quantum neural networks and perceptrons [2.598133279943607]
パラメタライズド量子回路に基づく量子機械学習モデルは、量子デバイスへの応用において最も有望な候補であると考えられている。
我々はQNNの表現率と帰納バイアスを$x$から$xotimes x$に作用する古典的パーセプトロンへの入力を含むQNNからの正確なマッピングを利用して検討する。
論文 参考訳(メタデータ) (2024-07-05T09:19:58Z) - Studying the Impact of Quantum-Specific Hyperparameters on Hybrid Quantum-Classical Neural Networks [4.951980887762045]
ハイブリッド量子古典ニューラルネットワーク(HQNN)は、古典的な機械学習の強みと量子コンピューティング能力を組み合わせた、有望なソリューションである。
本稿では,PennyLaneフレームワーク上に実装された画像分類タスクのHQNNモデルに対して,これらのバリエーションが与える影響について検討する。
我々は,HQNNモデルの直感的および直感的学習パターンを制御された量子摂動の粒度レベル内で明らかにし,精度とトレーニング時間との相関関係の健全な基盤を構築することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T11:44:25Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - Exponentially Many Local Minima in Quantum Neural Networks [9.442139459221785]
量子ニューラルネットワーク(QNN)は、古典的ニューラルネットワークと同じような約束のため、重要な量子アプリケーションである。
我々は,QNNの損失関数のランドスケープを定量的に調査し,トレーニング用に単純だが極めて難しいQNNインスタンスのクラスを同定する。
我々は、我々の構成が、典型的な勾配ベースの回路で実際に難しい事例となることを実証的に確認する。
論文 参考訳(メタデータ) (2021-10-06T03:23:44Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。