論文の概要: Quantum Alphatron: quantum advantage for learning with kernels and noise
- arxiv url: http://arxiv.org/abs/2108.11670v3
- Date: Fri, 29 Sep 2023 15:15:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 19:57:45.888694
- Title: Quantum Alphatron: quantum advantage for learning with kernels and noise
- Title(参考訳): quantum alphatron: カーネルとノイズを用いた学習における量子アドバンテージ
- Authors: Siyi Yang, Naixu Guo, Miklos Santha, Patrick Rebentrost
- Abstract要約: 本稿では、フォールトトレラント量子コンピューティングモデルにおいて、証明可能な学習保証を備えた量子アルゴリズムについて論じる。
十分に定義された学習モデルでは、この量子アルゴリズムは基礎となる概念クラスの幅広いパラメータの高速化を提供することができる。
また、2層ニューラルネットワークの学習における量子優位性についても論じる。
- 参考スコア(独自算出の注目度): 2.94944680995069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many machine learning algorithms optimize a loss function with stochastic
gradient descent and use kernel methods to extend linear learning tasks to
non-linear learning tasks. Both ideas have been discussed in the context of
quantum computing, especially for near-term quantum computing with variational
methods and the use of the Hilbert space to encode features of data. In this
work, we discuss a quantum algorithm with provable learning guarantee in the
fault-tolerant quantum computing model. In a well-defined learning model, this
quantum algorithm is able to provide a polynomial speedup for a large range of
parameters of the underlying concept class. We discuss two types of speedups,
one for evaluating the kernel matrix and one for evaluating the gradient in the
stochastic gradient descent procedure. We also discuss the quantum advantage in
the context of the learning of two-layer neural networks. Our work contributes
to the study of quantum learning with kernels and from samples.
- Abstract(参考訳): 多くの機械学習アルゴリズムは、確率勾配降下を伴う損失関数を最適化し、カーネル手法を用いて線形学習タスクを非線形学習タスクに拡張する。
どちらの考え方も量子コンピューティングの文脈で議論されており、特に変分法を持つ短期量子コンピューティングやデータの特徴をエンコードするヒルベルト空間の利用について論じられている。
本稿では,フォールトトレラント量子コンピューティングモデルにおいて,証明可能な学習保証を持つ量子アルゴリズムについて述べる。
よく定義された学習モデルでは、この量子アルゴリズムは基礎となる概念クラスの幅広いパラメータの多項式のスピードアップを提供することができる。
本稿では,カーネルマトリックスの評価と,確率勾配降下法における勾配評価の2種類の速度アップについて検討する。
また、2層ニューラルネットワークの学習における量子優位性についても論じる。
我々の研究は、カーネルとサンプルによる量子学習の研究に貢献している。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Quantum Machine Learning: Quantum Kernel Methods [0.0]
カーネルメソッドは古典的な機械学習において強力で一般的なテクニックである。
量子コンピュータ上でしか効率的に計算できない量子特徴空間を使用することで、量子上の優位性を導出することができる。
データ依存型投影量子カーネルは、古典的カーネルに対して大きな利点をもたらすことが示されている。
論文 参考訳(メタデータ) (2024-05-02T23:45:29Z) - Quadratic speed-ups in quantum kernelized binary classification [1.3812010983144802]
量子カーネルをデータ間の類似性の尺度として使用するいくつかの量子機械学習アルゴリズムが登場し、量子状態として符号化されたデータセットのバイナリ分類を実行するようになった。
本稿では,QKCに対する新しい量子回路を提案し,量子ビットの数を1つ減らし,サンプルデータに対して回路深さを線形に減らした。
Irisデータセットの数値シミュレーションにより,従来の手法よりも2次的な高速化を検証した。
論文 参考訳(メタデータ) (2024-03-26T07:39:48Z) - Quantum Machine Learning: from physics to software engineering [58.720142291102135]
古典的な機械学習アプローチが量子コンピュータの設備改善にどのように役立つかを示す。
量子アルゴリズムと量子コンピュータは、古典的な機械学習タスクを解くのにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-04T23:37:45Z) - The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for
Deep Quantum Machine Learning [52.77024349608834]
古典的なディープニューラルネットワークの量子アナログを構築することは、量子コンピューティングにおける根本的な課題である。
鍵となる問題は、古典的なディープラーニングの本質的な非線形性にどのように対処するかである。
我々は、深層機械学習のこれらの側面を複製できる量子機械学習の定式化であるQuantum Path Kernelを紹介する。
論文 参考訳(メタデータ) (2022-12-22T16:06:24Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Annealing Formulation for Binary Neural Networks [40.99969857118534]
本研究では、リソース制約のあるデバイスを意図した軽量で強力なモデルであるバイナリニューラルネットワークについて検討する。
トレーニング問題に対する2次非制約バイナリ最適化の定式化を考案する。
問題は難解であり、すなわち、二分重みを推定するコストはネットワークサイズと指数関数的にスケールするが、どのようにして問題を量子アニール器に直接最適化できるかを示す。
論文 参考訳(メタデータ) (2021-07-05T03:20:54Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Variational learning for quantum artificial neural networks [0.0]
まず、量子プロセッサ上での人工ニューロンとフィードフォワードニューラルネットワークの実装について、最近の一連の研究を概説する。
次に、変分アンサンプリングプロトコルに基づく効率的な個別量子ノードのオリジナル実現を提案する。
メモリ効率の高いフィードフォワードアーキテクチャとの完全な互換性を維持しながら、単一ニューロンの活性化確率を決定するのに必要な量子回路深さを効果的に削減する。
論文 参考訳(メタデータ) (2021-03-03T16:10:15Z) - Quantum Machine Learning for Particle Physics using a Variational
Quantum Classifier [0.0]
本稿では,ネットワークのパラメータを最適化するために,量子勾配降下法と急勾配降下法を組み合わせた新しいハイブリッド型変分量子分類器を提案する。
このアルゴリズムは、古典的ニューラルネットワークや、量子最適化法で訓練された量子機械学習法よりも優れた学習結果が得られる。
論文 参考訳(メタデータ) (2020-10-14T18:05:49Z) - Experimental Quantum Generative Adversarial Networks for Image
Generation [93.06926114985761]
超伝導量子プロセッサを用いた実世界の手書き桁画像の学習と生成を実験的に行う。
我々の研究は、短期量子デバイス上での高度な量子生成モデル開発のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2020-10-13T06:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。