論文の概要: Learning with Optimized Random Features: Exponential Speedup by Quantum
Machine Learning without Sparsity and Low-Rank Assumptions
- arxiv url: http://arxiv.org/abs/2004.10756v2
- Date: Mon, 9 Nov 2020 20:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:46:23.996497
- Title: Learning with Optimized Random Features: Exponential Speedup by Quantum
Machine Learning without Sparsity and Low-Rank Assumptions
- Title(参考訳): 最適ランダム特徴を用いた学習:スポーザリティと低ランク推定を伴わない量子機械学習による指数的高速化
- Authors: Hayata Yamasaki, Sathyawageeswar Subramanian, Sho Sonoda, Masato
Koashi
- Abstract要約: 我々は,実行時特性を最適化した分布からサンプリングする量子アルゴリズムを開発した。
我々のアルゴリズムは、このサンプリングタスクの既知の古典的アルゴリズムと比較して、D$の指数的な高速化を実現している。
- 参考スコア(独自算出の注目度): 8.08640000394814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel methods augmented with random features give scalable algorithms for
learning from big data. But it has been computationally hard to sample random
features according to a probability distribution that is optimized for the
data, so as to minimize the required number of features for achieving the
learning to a desired accuracy. Here, we develop a quantum algorithm for
sampling from this optimized distribution over features, in runtime $O(D)$ that
is linear in the dimension $D$ of the input data. Our algorithm achieves an
exponential speedup in $D$ compared to any known classical algorithm for this
sampling task. In contrast to existing quantum machine learning algorithms, our
algorithm circumvents sparsity and low-rank assumptions and thus has wide
applicability. We also show that the sampled features can be combined with
regression by stochastic gradient descent to achieve the learning without
canceling out our exponential speedup. Our algorithm based on sampling
optimized random features leads to an accelerated framework for machine
learning that takes advantage of quantum computers.
- Abstract(参考訳): ランダムな機能を備えたカーネルメソッドは、ビッグデータから学習するためのスケーラブルなアルゴリズムを提供する。
しかし、データに最適化された確率分布に従ってランダムな特徴をサンプリングすることは計算的に困難であり、学習を所望の精度で達成するための必要な特徴の数が最小化されている。
そこで我々は,この最適化された特徴量分布から,入力データの次元$D$で線形な実行時$O(D)$でサンプリングする量子アルゴリズムを開発した。
我々のアルゴリズムは、このサンプリングタスクの既知の古典的アルゴリズムと比較して、D$の指数的な高速化を実現している。
既存の量子機械学習アルゴリズムとは対照的に、我々のアルゴリズムはスパーシリティと低ランクの仮定を回避し、広い適用性を持つ。
また,これらの特徴を確率勾配降下による回帰と組み合わせることで,指数的高速化をキャンセルすることなく学習を実現できることを示す。
最適化されたランダムな特徴をサンプリングしたアルゴリズムは、量子コンピュータを利用する機械学習の高速化フレームワークに繋がる。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Optimal sampling of tensor networks targeting wave function's fast
decaying tails [0.0]
等尺テンソルネットワーク状態に対する局所測定文字列の量子結果のサンプリングに最適戦略を導入する。
このアルゴリズムはサンプルの繰り返しを回避し、指数関数的に減衰する尾を持つサンプリング分布を効率的に行う。
論文 参考訳(メタデータ) (2024-01-18T19:00:05Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Sequential minimum optimization algorithm with small sample size
estimators [0.06445605125467573]
逐次最小最適化は、機械学習のグローバル検索訓練アルゴリズムである。
本手法をフォトニクス回路に適用することにより,偶然事象の頻度の低さがアルゴリズムの速度を低下させるという新たな課題が生じる。
論文 参考訳(メタデータ) (2023-03-02T06:02:46Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - An optimal scheduled learning rate for a randomized Kaczmarz algorithm [1.2183405753834562]
そこで本研究では,Ax 近似 b + varepsilon$ を解くため,学習速度が無作為化 Kaczmarz アルゴリズムの性能にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2022-02-24T17:38:24Z) - Adaptive Random Quantum Eigensolver [0.0]
本稿では,乱数生成器の確率密度関数のパラメータ化と最適化を行う一般手法を提案する。
私たちの最適化は、学習速度と学習精度の2つのメリットに基づいています。
論文 参考訳(メタデータ) (2021-06-28T12:01:05Z) - Exponential Error Convergence in Data Classification with Optimized
Random Features: Acceleration by Quantum Machine Learning [8.98526174345299]
量子コンピュータによる機械学習のためのアルゴリズム、量子機械学習(QML)は、最適化されたランダムな特徴のサンプリングを指数関数的に高速化することができる。
ここでは、最適化されたランダムな特徴によって加速される分類タスクのためのQMLアルゴリズムを構築する。
最適化されたランダムな特徴量に対するQMLアルゴリズムと勾配降下(SGD)を組み合わせることで、最先端の指数収束速度を達成できることを実証する。
論文 参考訳(メタデータ) (2021-06-16T18:00:00Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。