論文の概要: A quantum algorithm for training wide and deep classical neural networks
- arxiv url: http://arxiv.org/abs/2107.09200v1
- Date: Mon, 19 Jul 2021 23:41:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 14:49:43.562269
- Title: A quantum algorithm for training wide and deep classical neural networks
- Title(参考訳): 広大かつ深い古典的ニューラルネットワークの学習のための量子アルゴリズム
- Authors: Alexander Zlokapa, Hartmut Neven, Seth Lloyd
- Abstract要約: 勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
- 参考スコア(独自算出の注目度): 72.2614468437919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the success of deep learning in classical machine learning, quantum
algorithms for traditional neural network architectures may provide one of the
most promising settings for quantum machine learning. Considering a
fully-connected feedforward neural network, we show that conditions amenable to
classical trainability via gradient descent coincide with those necessary for
efficiently solving quantum linear systems. We propose a quantum algorithm to
approximately train a wide and deep neural network up to $O(1/n)$ error for a
training set of size $n$ by performing sparse matrix inversion in $O(\log n)$
time. To achieve an end-to-end exponential speedup over gradient descent, the
data distribution must permit efficient state preparation and readout. We
numerically demonstrate that the MNIST image dataset satisfies such conditions;
moreover, the quantum algorithm matches the accuracy of the fully-connected
network. Beyond the proven architecture, we provide empirical evidence for
$O(\log n)$ training of a convolutional neural network with pooling.
- Abstract(参考訳): 古典的機械学習におけるディープラーニングの成功を考えると、従来のニューラルネットワークアーキテクチャのための量子アルゴリズムは、量子機械学習にとって最も有望な設定の1つとなるかもしれない。
完全に接続されたフィードフォワードニューラルネットワークを考えると、勾配降下による古典的トレーニング容易性は量子線形系を効率的に解くために必要なものと一致している。
我々は,大小のトレーニングセットを$O(\log n)$時間でスパース行列逆変換することで,最大$O(1/n)の誤差を最大で$O(1/n)の精度でトレーニングする量子アルゴリズムを提案する。
勾配降下によるエンドツーエンドの指数的速度アップを達成するためには、効率的な状態準備と読み出しを可能にする必要がある。
我々は、MNIST画像データセットがそのような条件を満たすことを数値的に示し、さらに、量子アルゴリズムは完全接続ネットワークの精度と一致することを示した。
実証済みのアーキテクチャを超えて、プール付き畳み込みニューラルネットワークの$o(\log n)$トレーニングに関する実証的な証拠を提供する。
関連論文リスト
- Training-efficient density quantum machine learning [2.918930150557355]
量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Learning To Optimize Quantum Neural Network Without Gradients [3.9848482919377006]
本稿では,量子回路のパラメータを出力するために,Emphmeta-Optimizerネットワークをトレーニングする新しいメタ最適化アルゴリズムを提案する。
我々は,従来の勾配に基づくアルゴリズムよりも回路評価が少ない場合に,より高品質な最小値が得られることを示す。
論文 参考訳(メタデータ) (2023-04-15T01:09:12Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks
with Quantum Computation [8.947825738917869]
リッジレット変換は、ニューラルネットワークの理論研究における基本的な数学的ツールである。
我々は、線形実行時$exp(O(D))$の量子計算において、量子状態のリッジレット変換を実装する量子リッジレット変換(QRT)を開発した。
アプリケーションとして、QMLの基本的なサブルーチンとしてQRTを使用することで、大きな浅い広帯域ニューラルネットワークのスパーストレーニング可能なサブネットワークを効率的に見つけることができることを示す。
論文 参考訳(メタデータ) (2023-01-27T19:00:00Z) - Implementing arbitrary quantum operations via quantum walks on a cycle
graph [8.820803742534677]
サイクルグラフ上の単純な離散時間量子ウォーク(DTQW)を用いて任意のユニタリ演算をモデル化する。
我々のモデルは基本的にDTQWに基づく量子ニューラルネットワークである。
論文 参考訳(メタデータ) (2022-10-26T03:51:46Z) - Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm [58.720142291102135]
Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
論文 参考訳(メタデータ) (2022-10-23T11:58:05Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。