論文の概要: Completely Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2202.11727v1
- Date: Wed, 23 Feb 2022 19:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 18:06:25.768746
- Title: Completely Quantum Neural Networks
- Title(参考訳): 完全量子ニューラルネットワーク
- Authors: Steve Abel, Juan C. Criado, Michael Spannowsky
- Abstract要約: 一般的なニューラルネットワークを量子アニールに埋め込んでトレーニングする方法を解説する。
本稿では,ネットワークの自由パラメータ,アクティベーション関数の近似,および2次高次成分を1つに還元する3つの重要な材料を開発する。
我々はこれを基本的ネットワークに実装し、損失関数のグローバルな最小値を見つけるための一貫性と、ネットワークトレーニングが単一ステップで収束するという事実という量子トレーニングの利点を説明している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial neural networks are at the heart of modern deep learning
algorithms. We describe how to embed and train a general neural network in a
quantum annealer without introducing any classical element in training. To
implement the network on a state-of-the-art quantum annealer, we develop three
crucial ingredients: binary encoding the free parameters of the network,
polynomial approximation of the activation function, and reduction of binary
higher-order polynomials into quadratic ones. Together, these ideas allow
encoding the loss function as an Ising model Hamiltonian. The quantum annealer
then trains the network by finding the ground state. We implement this for an
elementary network and illustrate the advantages of quantum training: its
consistency in finding the global minimum of the loss function and the fact
that the network training converges in a single annealing step, which leads to
short training times while maintaining a high classification performance. Our
approach opens a novel avenue for the quantum training of general machine
learning models.
- Abstract(参考訳): ニューラルネットワークは、現代のディープラーニングアルゴリズムの中心にある。
量子アニーラタに一般的なニューラルネットワークを組み込んでトレーニングする方法を,古典的要素をトレーニングに導入せずに記述する。
現状の量子アニーラー上にネットワークを実装するために,ネットワークの自由パラメータを符号化するバイナリ,アクティベーション関数の多項式近似,2次多項式を2次多項式に還元する2つの重要な要素を開発した。
これらのアイデアを組み合わせることで、損失関数をイジングモデルハミルトニアンとして符号化することができる。
次に量子アニーラは基底状態を見つけることでネットワークを訓練する。
損失関数のグローバルな最小値を見つけるための一貫性と、ネットワークトレーニングが1つのアニーリングステップに収束するという事実は、高い分類性能を維持しながら、短いトレーニング時間につながります。
我々のアプローチは、一般的な機械学習モデルの量子トレーニングのための新しい道を開く。
関連論文リスト
- Dissipation-driven quantum generative adversarial networks [11.833077116494929]
本稿では,従来のデータ生成に適した,分散駆動型量子生成逆数ネットワーク(DQGAN)アーキテクチャを提案する。
古典データは、強い調整された散逸過程を通じて入力層の入力量子ビットに符号化される。
出力量子ビットの定常状態の可観測値を測定することにより、生成されたデータと分類結果の両方を抽出する。
論文 参考訳(メタデータ) (2024-08-28T07:41:58Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Realization of a quantum neural network using repeat-until-success
circuits in a superconducting quantum processor [0.0]
本稿では、リアルタイム制御-フローフィードバックによって実現されたリピート・アンティル・サクセス回路を用いて、非線形活性化機能を持つ量子ニューロンを実現する。
例えば、2ビットから1ビットのブール関数をすべて学習できる最小限のフィードフォワード量子ニューラルネットワークを構築する。
このモデルは非線形分類を行い、全ての入力の最大重ね合わせからなる単一のトレーニング状態の複数のコピーから効果的に学習する。
論文 参考訳(メタデータ) (2022-12-21T03:26:32Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - A Hybrid Quantum-Classical Neural Network Architecture for Binary
Classification [0.0]
本稿では,各ニューロンが変動量子回路であるハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
シミュレーションハードウェアでは、ハイブリッドニューラルネットワークは、個々の変動量子回路よりも約10%高い分類精度とコストの20%の最小化を実現している。
論文 参考訳(メタデータ) (2022-01-05T21:06:30Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Annealing Formulation for Binary Neural Networks [40.99969857118534]
本研究では、リソース制約のあるデバイスを意図した軽量で強力なモデルであるバイナリニューラルネットワークについて検討する。
トレーニング問題に対する2次非制約バイナリ最適化の定式化を考案する。
問題は難解であり、すなわち、二分重みを推定するコストはネットワークサイズと指数関数的にスケールするが、どのようにして問題を量子アニール器に直接最適化できるかを示す。
論文 参考訳(メタデータ) (2021-07-05T03:20:54Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。