論文の概要: Exponential Error Convergence in Data Classification with Optimized
Random Features: Acceleration by Quantum Machine Learning
- arxiv url: http://arxiv.org/abs/2106.09028v1
- Date: Wed, 16 Jun 2021 18:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:02:39.366935
- Title: Exponential Error Convergence in Data Classification with Optimized
Random Features: Acceleration by Quantum Machine Learning
- Title(参考訳): ランダム特徴を最適化したデータ分類における指数誤差収束:量子機械学習による高速化
- Authors: Hayata Yamasaki, Sho Sonoda
- Abstract要約: 量子コンピュータによる機械学習のためのアルゴリズム、量子機械学習(QML)は、最適化されたランダムな特徴のサンプリングを指数関数的に高速化することができる。
ここでは、最適化されたランダムな特徴によって加速される分類タスクのためのQMLアルゴリズムを構築する。
最適化されたランダムな特徴量に対するQMLアルゴリズムと勾配降下(SGD)を組み合わせることで、最先端の指数収束速度を達成できることを実証する。
- 参考スコア(独自算出の注目度): 8.98526174345299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Random features are a central technique for scalable learning algorithms
based on kernel methods. A recent work has shown that an algorithm for machine
learning by quantum computer, quantum machine learning (QML), can exponentially
speed up sampling of optimized random features, even without imposing
restrictive assumptions on sparsity and low-rankness of matrices that had
limited applicability of conventional QML algorithms; this QML algorithm makes
it possible to significantly reduce and provably minimize the required number
of features for regression tasks. However, a major interest in the field of QML
is how widely the advantages of quantum computation can be exploited, not only
in the regression tasks. We here construct a QML algorithm for a classification
task accelerated by the optimized random features. We prove that the QML
algorithm for sampling optimized random features, combined with stochastic
gradient descent (SGD), can achieve state-of-the-art exponential convergence
speed of reducing classification error in a classification task under a
low-noise condition; at the same time, our algorithm with optimized random
features can take advantage of the significant reduction of the required number
of features so as to accelerate each iteration in the SGD and evaluation of the
classifier obtained from our algorithm. These results discover a promising
application of QML to significant acceleration of the leading classification
algorithm based on kernel methods, without ruining its applicability to a
practical class of data sets and the exponential error-convergence speed.
- Abstract(参考訳): ランダム機能は、カーネルメソッドに基づいたスケーラブルな学習アルゴリズムの中枢技術である。
近年の研究では、量子コンピュータによる機械学習のためのアルゴリズムである量子機械学習(QML)が、従来のQMLアルゴリズムの適用性に制限のある行列の空間性と低ランク性に関する制約的な仮定を課すことなく、最適化されたランダムな特徴のサンプリングを指数関数的に高速化できることが示されている。
しかし、QMLの分野における大きな関心は、回帰タスクだけでなく、量子計算の利点がいかに広く活用できるかである。
ここでは、最適化されたランダムな特徴によって加速される分類タスクのためのQMLアルゴリズムを構築する。
We prove that the QML algorithm for sampling optimized random features, combined with stochastic gradient descent (SGD), can achieve state-of-the-art exponential convergence speed of reducing classification error in a classification task under a low-noise condition; at the same time, our algorithm with optimized random features can take advantage of the significant reduction of the required number of features so as to accelerate each iteration in the SGD and evaluation of the classifier obtained from our algorithm.
これらの結果は,実効的なデータセットと指数的誤り収束速度に適用性を損なうことなく,カーネル法に基づく主要な分類アルゴリズムの大幅な高速化にQMLの有望な応用を見出した。
関連論文リスト
- Multiscale Quantum Approximate Optimization Algorithm [0.0]
量子近似最適化アルゴリズム(QAOA)は、最適化問題の近似解を見つけるために設計された標準アルゴリズムの1つである。
本稿では,QAOAの能力と実空間再正規化群変換を取り入れたQAOAの新バージョンを提案する。
論文 参考訳(メタデータ) (2023-12-11T07:47:16Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Sequential minimum optimization algorithm with small sample size
estimators [0.06445605125467573]
逐次最小最適化は、機械学習のグローバル検索訓練アルゴリズムである。
本手法をフォトニクス回路に適用することにより,偶然事象の頻度の低さがアルゴリズムの速度を低下させるという新たな課題が生じる。
論文 参考訳(メタデータ) (2023-03-02T06:02:46Z) - Gradient-Free optimization algorithm for single-qubit quantum classifier [0.3314882635954752]
量子デバイスによるバレンプラトーの影響を克服するために、勾配のない最適化アルゴリズムを提案する。
提案アルゴリズムは分類タスクに対して実証され,Adamを用いた手法と比較される。
提案アルゴリズムはAdamよりも高速に精度を向上できる。
論文 参考訳(メタデータ) (2022-05-10T08:45:03Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Quantum Approximate Optimization Algorithm Based Maximum Likelihood
Detection [80.28858481461418]
量子技術の最近の進歩は、ノイズの多い中間スケール量子(NISQ)デバイスへの道を開く。
量子技術の最近の進歩は、ノイズの多い中間スケール量子(NISQ)デバイスへの道を開く。
論文 参考訳(メタデータ) (2021-07-11T10:56:24Z) - Learning Neural Network Quantum States with the Linear Method [0.0]
本手法は,複雑な値を持つニューラルネットワーク量子状態の最適化に有効であることを示す。
我々は、LMを最先端のSRアルゴリズムと比較し、LMが収束のために最大で1桁の繰り返しを必要とすることを発見した。
論文 参考訳(メタデータ) (2021-04-22T12:18:33Z) - Learning with Optimized Random Features: Exponential Speedup by Quantum
Machine Learning without Sparsity and Low-Rank Assumptions [8.08640000394814]
我々は,実行時特性を最適化した分布からサンプリングする量子アルゴリズムを開発した。
我々のアルゴリズムは、このサンプリングタスクの既知の古典的アルゴリズムと比較して、D$の指数的な高速化を実現している。
論文 参考訳(メタデータ) (2020-04-22T18:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。