論文の概要: Classical Artificial Neural Network Training Using Quantum Walks as a
Search Procedure
- arxiv url: http://arxiv.org/abs/2108.12448v2
- Date: Thu, 2 Sep 2021 23:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 00:53:31.088389
- Title: Classical Artificial Neural Network Training Using Quantum Walks as a
Search Procedure
- Title(参考訳): 量子ウォークを探索手順として用いた古典的人工ニューラルネットワークトレーニング
- Authors: Luciano S. de Souza, Jonathan H. A. de Carvalho, Tiago A. E. Ferreira
- Abstract要約: この手順の目的は、古典的な人工ニューラルネットワークのすべてのシナプス重みを見つけるために、完全グラフの探索アルゴリズムとして量子ウォークを適用することである。
この完全なグラフはそれぞれ、$w$次元の探索空間に設定されたシナプス重みを表すものであり、$w$はニューラルネットワークの重みの数である。
提案手法は提案した概念を証明するために$XOR$問題に採用された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a computational procedure that applies a quantum
algorithm to train classical artificial neural networks. The goal of the
procedure is to apply quantum walk as a search algorithm in a complete graph to
find all synaptic weights of a classical artificial neural network. Each vertex
of this complete graph represents a possible synaptic weight set in the
$w$-dimensional search space, where $w$ is the number of weights of the neural
network. To know the number of iterations required \textit{a priori} to obtain
the solutions is one of the main advantages of the procedure. Another advantage
is that the proposed method does not stagnate in local minimums. Thus, it is
possible to use the quantum walk search procedure as an alternative to the
backpropagation algorithm. The proposed method was employed for a $XOR$ problem
to prove the proposed concept. To solve this problem, the proposed method
trained a classical artificial neural network with nine weights. However, the
procedure can find solutions for any number of dimensions. The results achieved
demonstrate the viability of the proposal, contributing to machine learning and
quantum computing researches.
- Abstract(参考訳): 本稿では,量子アルゴリズムを古典的ニューラルネットワークの学習に応用する計算手順を提案する。
この手続きの目的は、量子ウォークを完全グラフの探索アルゴリズムとして適用し、古典的な人工ニューラルネットワークの全てのシナプス重みを見つけることである。
この完全グラフの各頂点は、$w$-次元探索空間において可能なシナプス重み集合を表し、ここで$w$はニューラルネットワークの重みの数である。
解を得るのに \textit{a priori} が必要となるイテレーションの数を知ることは、この手順の主な利点の1つです。
もう一つの利点は、提案手法が局所的な最小値で停滞しないことである。
したがって、量子ウォーク探索手順をバックプロパゲーションアルゴリズムの代替として用いることができる。
提案手法は提案した概念を証明するために$XOR$問題に採用された。
この問題を解決するため、提案手法は9重みを持つ古典的人工ニューラルネットワークを訓練した。
しかし、この手順は任意の次元の解を見つけることができる。
その結果、提案の可能性を実証し、機械学習と量子コンピューティングの研究に貢献した。
関連論文リスト
- Neural Algorithmic Reasoning with Multiple Correct Solutions [16.045068056647676]
一部のアプリケーションでは、複数の正しい解を回収することが望ましい。
BF(Bellman-Ford)とDFS(Depth-First Search)の2つの古典的アルゴリズムで本手法を実証する。
この方法は、モデル出力からソリューションをサンプリングし、検証するだけでなく、適切なトレーニングデータを生成することを含む。
論文 参考訳(メタデータ) (2024-09-11T02:29:53Z) - Quantum Neuron Selection: Finding High Performing Subnetworks With
Quantum Algorithms [0.0]
最近、大規模でランダムなニューラルネットワークには、完全にトレーニングされたモデルだけでなく、機能する作業が含まれていることが示されている。
この洞察は、大きなランダムモデルから重みを抽出するだけで、将来のニューラルネットワークをトレーニングするための有望な道を提供する。
本稿では,このニューロン選択問題に対して量子アルゴリズムをどのように定式化して適用するかを検討する。
論文 参考訳(メタデータ) (2023-02-12T19:19:48Z) - Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm [58.720142291102135]
Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
論文 参考訳(メタデータ) (2022-10-23T11:58:05Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Natural evolutionary strategies applied to quantum-classical hybrid
neural networks [0.0]
ブラックボックス最適化アルゴリズムのファミリであるNatural Evolutionary Strategies(NES)について検討する。
本手法が量子ニューラルネットワークのトレーニングに有効な代替手段であることを示すため,二元分類タスクにNES法を適用した。
論文 参考訳(メタデータ) (2022-05-17T02:14:44Z) - Quantum Walk to Train a Classical Artificial Neural Network [0.0]
この研究は、古典的な人工ニューラルネットワークを訓練するために、完全なグラフで量子ウォークを使用する手順を提案する。
ニューラルネットワークのトレーニングに使用される方法論は、隠れた層の重みを変更するのではなく、出力層のシナプス重みを調整する。
計算ゲインに加えて、提案手法のもう一つの利点は、解を得るのに必要な反復回数をtextita priori で知ることができることである。
論文 参考訳(メタデータ) (2021-09-01T00:36:52Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - On Applying the Lackadaisical Quantum Walk Algorithm to Search for
Multiple Solutions on Grids [63.75363908696257]
不足量子ウォーク(英: lackadaisical quantum walk)は、頂点が重量$l$の自己ループを持つグラフ構造を探索するために開発されたアルゴリズムである。
本稿では,グリッド上の複数解の探索に不連続な量子ウォークを適用した際の問題に対処する。
論文 参考訳(メタデータ) (2021-06-11T09:43:09Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Neural Thompson Sampling [94.82847209157494]
本稿では,ニューラルトンプソンサンプリング(Neural Thompson Smpling)と呼ばれる新しいアルゴリズムを提案する。
我々のアルゴリズムの中核は報酬の新たな後部分布であり、その平均はニューラルネットワーク近似器であり、その分散は対応するニューラルネットワークのニューラル・タンジェントな特徴に基づいて構築されている。
論文 参考訳(メタデータ) (2020-10-02T07:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。