論文の概要: Quantum Walk to Train a Classical Artificial Neural Network
- arxiv url: http://arxiv.org/abs/2109.00128v2
- Date: Tue, 7 Sep 2021 21:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 11:01:01.007780
- Title: Quantum Walk to Train a Classical Artificial Neural Network
- Title(参考訳): 量子ウォークによる古典的ニューラルネットワークの学習
- Authors: Luciano S. de Souza, Jonathan H. A. de Carvalho, Tiago A. E. Ferreira
- Abstract要約: この研究は、古典的な人工ニューラルネットワークを訓練するために、完全なグラフで量子ウォークを使用する手順を提案する。
ニューラルネットワークのトレーニングに使用される方法論は、隠れた層の重みを変更するのではなく、出力層のシナプス重みを調整する。
計算ゲインに加えて、提案手法のもう一つの利点は、解を得るのに必要な反復回数をtextita priori で知ることができることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a computational procedure that uses a quantum walk in a
complete graph to train classical artificial neural networks. The idea is to
apply the quantum walk to search the weight set values. However, it is
necessary to simulate a quantum machine to execute the quantum walk. In this
way, to minimize the computational cost, the methodology employed to train the
neural network will adjust the synaptic weights of the output layer, not
altering the weights of the hidden layer, inspired in the method of Extreme
Learning Machine. The quantum walk algorithm as a search algorithm is
quadratically faster than its classic analog. The quantum walk variance is
$O(t)$ while the variance of its classic analog is $O(\sqrt{t})$, where $t$ is
the time or iteration. In addition to computational gain, another advantage of
the proposed procedure is to be possible to know \textit{a priori} the number
of iterations required to obtain the solutions, unlike the classical training
algorithms based on gradient descendent.
- Abstract(参考訳): 本研究は、完全グラフの量子ウォークを用いて古典的人工ニューラルネットワークを学習する計算手順を提案する。
そのアイデアは、量子ウォークを重み集合の値の探索に適用することである。
しかし、量子ウォークを実行するには量子マシンをシミュレートする必要がある。
このように、計算コストを最小限に抑えるため、ニューラルネットワークのトレーニングに使用される方法論は、極端学習機械の手法にインスパイアされた隠れ層の重みを変更するのではなく、出力層のシナプス重みを調整する。
探索アルゴリズムとしての量子ウォークアルゴリズムは、古典的なアナログよりも2倍高速である。
量子ウォーク分散は$o(t)$であるが、古典的なアナログの分散は$o(\sqrt{t})$であり、ここで$t$は時間または反復である。
計算の利得に加えて、提案された手順のもう1つの利点は、勾配下降に基づく古典的な訓練アルゴリズムとは異なり、解を得るのに必要なイテレーションの数を \textit{a priori} を知ることである。
関連論文リスト
- Learning To Optimize Quantum Neural Network Without Gradients [3.9848482919377006]
本稿では,量子回路のパラメータを出力するために,Emphmeta-Optimizerネットワークをトレーニングする新しいメタ最適化アルゴリズムを提案する。
我々は,従来の勾配に基づくアルゴリズムよりも回路評価が少ない場合に,より高品質な最小値が得られることを示す。
論文 参考訳(メタデータ) (2023-04-15T01:09:12Z) - Quantum Machine Learning: from physics to software engineering [58.720142291102135]
古典的な機械学習アプローチが量子コンピュータの設備改善にどのように役立つかを示す。
量子アルゴリズムと量子コンピュータは、古典的な機械学習タスクを解くのにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-04T23:37:45Z) - Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm [58.720142291102135]
Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
論文 参考訳(メタデータ) (2022-10-23T11:58:05Z) - Predicting Gibbs-State Expectation Values with Pure Thermal Shadows [1.4050836886292868]
本稿では,任意のギブス状態の線形関数を$M$で予測できる量子アルゴリズムを提案する。
このアルゴリズムは、8ビットの完全連結量子ボルツマンマシンをトレーニングするためのサブルーチンとしてうまく利用できることを示す。
論文 参考訳(メタデータ) (2022-06-10T18:00:08Z) - Entanglement and coherence in Bernstein-Vazirani algorithm [58.720142291102135]
Bernstein-Vaziraniアルゴリズムは、オラクルに符号化されたビット文字列を決定できる。
我々はベルンシュタイン・ヴァジラニアルゴリズムの量子資源を詳細に分析する。
絡み合いがない場合、初期状態における量子コヒーレンス量とアルゴリズムの性能が直接関係していることが示される。
論文 参考訳(メタデータ) (2022-05-26T20:32:36Z) - Classical Artificial Neural Network Training Using Quantum Walks as a
Search Procedure [0.0]
この手順の目的は、古典的な人工ニューラルネットワークのすべてのシナプス重みを見つけるために、完全グラフの探索アルゴリズムとして量子ウォークを適用することである。
この完全なグラフはそれぞれ、$w$次元の探索空間に設定されたシナプス重みを表すものであり、$w$はニューラルネットワークの重みの数である。
提案手法は提案した概念を証明するために$XOR$問題に採用された。
論文 参考訳(メタデータ) (2021-08-27T18:14:39Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Verifying Random Quantum Circuits with Arbitrary Geometry Using Tensor
Network States Algorithm [0.0]
アルゴリズムはSch$ddottexto$dinger-Feynmanアルゴリズムよりも2ドル高速である。
このアルゴリズムは, 量子コンピュータ上での比較的浅い量子回路の検証に最適であることを示す。
論文 参考訳(メタデータ) (2020-11-05T02:20:56Z) - Quantum Gram-Schmidt Processes and Their Application to Efficient State
Read-out for Quantum Algorithms [87.04438831673063]
本稿では、生成した状態の古典的ベクトル形式を生成する効率的な読み出しプロトコルを提案する。
我々のプロトコルは、出力状態が入力行列の行空間にある場合に適合する。
我々の技術ツールの1つは、Gram-Schmidt正則手順を実行するための効率的な量子アルゴリズムである。
論文 参考訳(メタデータ) (2020-04-14T11:05:26Z) - Machine learning transfer efficiencies for noisy quantum walks [62.997667081978825]
グラフ型と量子系コヒーレンスの両方の要件を見つけるプロセスは自動化可能であることを示す。
この自動化は、特定のタイプの畳み込みニューラルネットワークを使用して、どのネットワークで、どのコヒーレンス要求の量子優位性が可能かを学習する。
我々の結果は、量子実験における利点の実証と、科学的研究と発見の自動化への道を開くために重要である。
論文 参考訳(メタデータ) (2020-01-15T18:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。