論文の概要: Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm
- arxiv url: http://arxiv.org/abs/2210.12707v1
- Date: Sun, 23 Oct 2022 11:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 21:35:36.112684
- Title: Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm
- Title(参考訳): hhl量子アルゴリズムを用いた単層二元ニューラルネットワークの学習の高速化
- Authors: Sonia Lopez Alarcon, Cory Merkel, Martin Hoffnagle, Sabrina Ly,
Alejandro Pozas-Kerstjens
- Abstract要約: Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary Neural Networks are a promising technique for implementing efficient
deep models with reduced storage and computational requirements. The training
of these is however, still a compute-intensive problem that grows drastically
with the layer size and data input. At the core of this calculation is the
linear regression problem. The Harrow-Hassidim-Lloyd (HHL) quantum algorithm
has gained relevance thanks to its promise of providing a quantum state
containing the solution of a linear system of equations. The solution is
encoded in superposition at the output of a quantum circuit. Although this
seems to provide the answer to the linear regression problem for the training
neural networks, it also comes with multiple, difficult-to-avoid hurdles. This
paper shows, however, that useful information can be extracted from the
quantum-mechanical implementation of HHL, and used to reduce the complexity of
finding the solution on the classical side.
- Abstract(参考訳): バイナリニューラルネットワークは、ストレージと計算要件を削減した効率的な深層モデルを実装するための有望な技術である。
しかし、これらのトレーニングは依然として計算集約的な問題であり、レイヤーサイズとデータ入力によって劇的に増加する。
この計算の核となるのは線形回帰問題である。
HHL(Harrow-Hassidim-Lloyd)量子アルゴリズムは、方程式の線形系の解を含む量子状態を提供することによって、関連性を得た。
この解は量子回路の出力において重ね合わせで符号化される。
これは、トレーニングニューラルネットワークの線形回帰問題に対する答えとなるように思われるが、複数の困難かつ回避可能なハードルも伴っている。
しかし本論文では,hhlの量子力学的実装から有用な情報を抽出でき,古典的側面における解の探索の複雑さを低減できることを示す。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Training Multi-layer Neural Networks on Ising Machine [41.95720316032297]
本稿では,量子化ニューラルネットワーク(QNN)を学習するためのIsing学習アルゴリズムを提案する。
私たちが知る限りでは、Isingマシン上で多層フィードフォワードネットワークをトレーニングする最初のアルゴリズムである。
論文 参考訳(メタデータ) (2023-11-06T04:09:15Z) - Quantum Annealing for Single Image Super-Resolution [86.69338893753886]
単一画像超解像(SISR)問題を解くために,量子コンピューティングに基づくアルゴリズムを提案する。
提案したAQCアルゴリズムは、SISRの精度を維持しつつ、古典的なアナログよりも向上したスピードアップを実現する。
論文 参考訳(メタデータ) (2023-04-18T11:57:15Z) - Learning To Optimize Quantum Neural Network Without Gradients [3.9848482919377006]
本稿では,量子回路のパラメータを出力するために,Emphmeta-Optimizerネットワークをトレーニングする新しいメタ最適化アルゴリズムを提案する。
我々は,従来の勾配に基づくアルゴリズムよりも回路評価が少ない場合に,より高品質な最小値が得られることを示す。
論文 参考訳(メタデータ) (2023-04-15T01:09:12Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks
with Quantum Computation [8.947825738917869]
リッジレット変換は、ニューラルネットワークの理論研究における基本的な数学的ツールである。
我々は、線形実行時$exp(O(D))$の量子計算において、量子状態のリッジレット変換を実装する量子リッジレット変換(QRT)を開発した。
アプリケーションとして、QMLの基本的なサブルーチンとしてQRTを使用することで、大きな浅い広帯域ニューラルネットワークのスパーストレーニング可能なサブネットワークを効率的に見つけることができることを示す。
論文 参考訳(メタデータ) (2023-01-27T19:00:00Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。