論文の概要: Exponential concentration in quantum kernel methods
- arxiv url: http://arxiv.org/abs/2208.11060v2
- Date: Sun, 14 Apr 2024 18:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 00:46:46.580921
- Title: Exponential concentration in quantum kernel methods
- Title(参考訳): 量子核法における指数集中
- Authors: Supanut Thanasilp, Samson Wang, M. Cerezo, Zoë Holmes,
- Abstract要約: 本稿では,カーネルの値を正確に推定するために必要な資源の観点から,量子カーネルモデルの性能について検討する。
データ埋め込みの表現性、大域的測定、絡み合い、ノイズの4つの情報源を同定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel methods in Quantum Machine Learning (QML) have recently gained significant attention as a potential candidate for achieving a quantum advantage in data analysis. Among other attractive properties, when training a kernel-based model one is guaranteed to find the optimal model's parameters due to the convexity of the training landscape. However, this is based on the assumption that the quantum kernel can be efficiently obtained from quantum hardware. In this work we study the performance of quantum kernel models from the perspective of the resources needed to accurately estimate kernel values. We show that, under certain conditions, values of quantum kernels over different input data can be exponentially concentrated (in the number of qubits) towards some fixed value. Thus on training with a polynomial number of measurements, one ends up with a trivial model where the predictions on unseen inputs are independent of the input data. We identify four sources that can lead to concentration including: expressivity of data embedding, global measurements, entanglement and noise. For each source, an associated concentration bound of quantum kernels is analytically derived. Lastly, we show that when dealing with classical data, training a parametrized data embedding with a kernel alignment method is also susceptible to exponential concentration. Our results are verified through numerical simulations for several QML tasks. Altogether, we provide guidelines indicating that certain features should be avoided to ensure the efficient evaluation of quantum kernels and so the performance of quantum kernel methods.
- Abstract(参考訳): 量子機械学習(QML)におけるカーネル手法は、最近、データ分析における量子優位性を達成するための候補として、大きな注目を集めている。
その他の魅力的な特性として、カーネルベースのモデルをトレーニングする場合、トレーニングランドスケープの凸性のために最適なモデルのパラメータを見つけることが保証される。
しかし、これは量子カーネルが量子ハードウェアから効率的に得ることができるという仮定に基づいている。
本研究では,カーネル値の正確な推定に必要な資源の観点から,量子カーネルモデルの性能について検討する。
特定の条件下では、異なる入力データに対する量子核の値は、ある固定値に対して指数関数的に(量子ビットの数において)集中することができることを示す。
したがって、多項式数の測定によるトレーニングでは、見当たらない入力の予測が入力データとは独立であるような自明なモデルに終わる。
データ埋め込みの表現性、大域的測定、絡み合い、ノイズの4つの情報源を同定する。
各源について、関連する量子核の濃度境界が解析的に導出される。
最後に,古典的データを扱う場合,カーネルアライメント法を組み込んだパラメタライズドデータのトレーニングも指数集中の影響を受けやすいことを示す。
本研究は,数種類のQMLタスクの数値シミュレーションにより検証した。
また、量子カーネルの効率的な評価と量子カーネル法の性能を確保するために、特定の機能を回避すべきであることを示すガイドラインも提示する。
関連論文リスト
- The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - In Search of Quantum Advantage: Estimating the Number of Shots in Quantum Kernel Methods [30.565491081930997]
本稿では,カーネル値の所望の精度を推定する手法を開発し,回路実行回数に変換する。
我々は、量子カーネル法は、機械学習のパフォーマンスの観点からだけでなく、リソース消費の文脈からも考慮すべきである、と強調する。
論文 参考訳(メタデータ) (2024-07-22T16:29:35Z) - QUACK: Quantum Aligned Centroid Kernel [0.0]
本稿では、トレーニング中のサンプル数と時間複雑性を線形にスケールする量子カーネルアルゴリズムであるQUICKを紹介する。
提案アルゴリズムでは,MNIST などの高次元データセットを 784 個の特徴量で扱える。
論文 参考訳(メタデータ) (2024-05-01T04:00:09Z) - Power Characterization of Noisy Quantum Kernels [52.47151453259434]
一般化誤差が小さい場合でも,量子カーネル法は予測能力に乏しい。
我々は、量子計算にノイズの多い量子カーネル法を用いるために重要な警告を提供する。
論文 参考訳(メタデータ) (2024-01-31T01:02:16Z) - Neural auto-designer for enhanced quantum kernels [59.616404192966016]
本稿では,問題固有の量子特徴写像の設計を自動化するデータ駆動型手法を提案する。
私たちの研究は、量子機械学習の進歩におけるディープラーニングの実質的な役割を強調します。
論文 参考訳(メタデータ) (2024-01-20T03:11:59Z) - Importance sampling for stochastic quantum simulations [68.8204255655161]
我々は、係数に応じてハミルトン式からサンプリングしてランダムな積公式を構築するqDriftプロトコルを導入する。
サンプリング段階における個別のシミュレーションコストを考慮し、同じ精度でシミュレーションコストを削減可能であることを示す。
格子核効果場理論を用いて数値シミュレーションを行った結果, 実験結果が得られた。
論文 参考訳(メタデータ) (2022-12-12T15:06:32Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Training Quantum Embedding Kernels on Near-Term Quantum Computers [0.08563354084119063]
量子コンピュータのヒルベルト空間にデータを埋め込むことで構築された量子埋め込みカーネル(QEK)は、特定の量子カーネル技術である。
まず、量子埋め込みカーネルを紹介し、ノイズの多い短期量子コンピュータ上でそれらを実現する際に生じる現実的な問題を解析する。
論文 参考訳(メタデータ) (2021-05-05T18:41:13Z) - Towards understanding the power of quantum kernels in the NISQ era [79.8341515283403]
量子カーネルの利点は,大規模データセット,計測回数の少ないもの,システムノイズなどにおいて消失することを示した。
我々の研究は、NISQデバイス上で量子優位性を得るための先進量子カーネルの探索に関する理論的ガイダンスを提供する。
論文 参考訳(メタデータ) (2021-03-31T02:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。