論文の概要: Kernel Matrix Completion for Offline Quantum-Enhanced Machine Learning
- arxiv url: http://arxiv.org/abs/2112.08449v1
- Date: Wed, 15 Dec 2021 19:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-04 11:40:10.492847
- Title: Kernel Matrix Completion for Offline Quantum-Enhanced Machine Learning
- Title(参考訳): オフライン量子強化機械学習のためのカーネル行列補完
- Authors: Annie Naveh, Imogen Fitzgerald, Anna Phan, Andrew Lockwood, and Travis
L. Scholten
- Abstract要約: 量子カーネル行列を拡張して,古典的(和グラフベース)行列補完アルゴリズムを用いて新しいデータを組み込む方法を示す。
完全完備化に必要な最小限のサンプル複雑性は、行列ランクに依存する。
実世界の産業関連データセットでは、最小サンプルの複雑さが到達していない場合でも、完了誤差は良好に振る舞う。
- 参考スコア(独自算出の注目度): 0.09786690381850353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enhancing classical machine learning (ML) algorithms through quantum kernels
is a rapidly growing research topic in quantum machine learning (QML). A key
challenge in using kernels -- both classical and quantum -- is that ML
workflows involve acquiring new observations, for which new kernel values need
to be calculated. Transferring data back-and-forth between where the new
observations are generated & a quantum computer incurs a time delay; this delay
may exceed the timescales relevant for using the QML algorithm in the first
place. In this work, we show quantum kernel matrices can be extended to
incorporate new data using a classical (chordal-graph-based) matrix completion
algorithm. The minimal sample complexity needed for perfect completion is
dependent on matrix rank. We empirically show that (a) quantum kernel matrices
can be completed using this algorithm when the minimal sample complexity is
met, (b) the error of the completion degrades gracefully in the presence of
finite-sampling noise, and (c) the rank of quantum kernel matrices depends
weakly on the expressibility of the quantum feature map generating the kernel.
Further, on a real-world, industrially-relevant data set, the completion error
behaves gracefully even when the minimal sample complexity is not reached.
- Abstract(参考訳): 量子カーネルによる古典的機械学習(ML)アルゴリズムの強化は、量子機械学習(QML)における急速に成長する研究トピックである。
古典的および量子的両方のカーネルを使用する上で重要な課題は、MLワークフローが新しいカーネル値を計算する必要がある新しい観察を取得することに関わることである。
新しい観測結果が生成された場所と量子コンピュータの間のデータの転送には時間遅延が伴うため、この遅延はqmlアルゴリズムを使用するための時間スケールを超える可能性がある。
本研究では,古典的(和グラフに基づく)行列補完アルゴリズムを用いて,量子カーネル行列を拡張して新しいデータを組み込む方法を示す。
完全完了に必要な最小のサンプル複雑性は行列のランクに依存する。
私たちはそれを経験的に示します
a) 最小サンプルの複雑さが満たされた場合、このアルゴリズムを用いて量子カーネル行列を完成させることができる。
(b)有限サンプリングノイズの存在下において、完了の誤りは優雅に劣化し、
(c) 量子カーネル行列のランクは、カーネルを生成する量子特徴写像の表現可能性に弱に依存する。
さらに、実世界の産業関連データセットでは、最小サンプルの複雑さが到達していない場合でも、完了誤差は良好に振る舞う。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - QUACK: Quantum Aligned Centroid Kernel [0.0]
本稿では、トレーニング中のサンプル数と時間複雑性を線形にスケールする量子カーネルアルゴリズムであるQUICKを紹介する。
提案アルゴリズムでは,MNIST などの高次元データセットを 784 個の特徴量で扱える。
論文 参考訳(メタデータ) (2024-05-01T04:00:09Z) - Robust Dequantization of the Quantum Singular value Transformation and Quantum Machine Learning Algorithms [0.39886149789339326]
この弱い仮定の下では、ランダム化線形代数の技法がどれだけ多く適用できるかを示す。
また、これらの結果を用いて、多くの量子機械学習アルゴリズムの頑健な復号化を行う。
論文 参考訳(メタデータ) (2023-04-11T02:09:13Z) - Quantum Clustering with k-Means: a Hybrid Approach [117.4705494502186]
我々は3つのハイブリッド量子k-Meansアルゴリズムを設計、実装、評価する。
我々は距離の計算を高速化するために量子現象を利用する。
我々は、我々のハイブリッド量子k-平均アルゴリズムが古典的バージョンよりも効率的であることを示す。
論文 参考訳(メタデータ) (2022-12-13T16:04:16Z) - Quantum Worst-Case to Average-Case Reductions for All Linear Problems [66.65497337069792]
量子アルゴリズムにおける最悪のケースと平均ケースの削減を設計する問題について検討する。
量子アルゴリズムの明示的で効率的な変換は、入力のごく一部でのみ正し、全ての入力で正しくなる。
論文 参考訳(メタデータ) (2022-12-06T22:01:49Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Quantum Semi-Supervised Kernel Learning [4.726777092009554]
本稿では,セミスーパービジョンカーネル支援ベクトルマシンを学習するための量子機械学習アルゴリズムを提案する。
完全教師付き量子LS-SVMと同じスピードアップを維持していることを示す。
論文 参考訳(メタデータ) (2022-04-22T13:39:55Z) - Quantum Machine Learning For Classical Data [0.0]
量子コンピューティングと教師付き機械学習アルゴリズムの交差について研究する。
特に,教師付き機械学習アルゴリズムの高速化に量子コンピュータがどの程度使えるかを検討する。
論文 参考訳(メタデータ) (2021-05-08T12:11:44Z) - A rigorous and robust quantum speed-up in supervised machine learning [6.402634424631123]
本稿では,汎用量子学習アルゴリズムを用いて,教師付き分類のための厳密な量子スピードアップを確立する。
我々の量子分類器は、フォールトトレラント量子コンピュータを用いてカーネル関数を推定する従来のサポートベクトルマシンである。
論文 参考訳(メタデータ) (2020-10-05T17:22:22Z) - Statistical Limits of Supervised Quantum Learning [90.0289160657379]
精度の制約を考慮すると、教師付き学習のための量子機械学習アルゴリズムは入力次元における多対数ランタイムを達成できないことを示す。
より効率的な古典的アルゴリズムよりも、教師あり学習のための量子機械学習アルゴリズムの方が、ほとんどの場合スピードアップできると結論付けている。
論文 参考訳(メタデータ) (2020-01-28T17:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。