論文の概要: Exponential concentration and untrainability in quantum kernel methods
- arxiv url: http://arxiv.org/abs/2208.11060v1
- Date: Tue, 23 Aug 2022 16:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:55:13.356359
- Title: Exponential concentration and untrainability in quantum kernel methods
- Title(参考訳): 量子核法における指数濃度と非摂動性
- Authors: Supanut Thanasilp, Samson Wang, M. Cerezo, Zo\"e Holmes
- Abstract要約: 量子カーネルのトレーニング可能性について,カーネルの値を正確に推定するために必要なリソースの観点から検討する。
データ埋め込み、大域的計測、絡み合い、ノイズの表現可能性を含む、集中に繋がる4つの情報源を同定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel methods in Quantum Machine Learning (QML) have recently gained
significant attention as a potential candidate for achieving a quantum
advantage in data analysis. Among other attractive properties, when training a
kernel-based model one is guaranteed to find the optimal model's parameters due
to the convexity of the training landscape. However, this is based on the
assumption that the quantum kernel can be efficiently obtained from a quantum
hardware. In this work we study the trainability of quantum kernels from the
perspective of the resources needed to accurately estimate kernel values. We
show that, under certain conditions, values of quantum kernels over different
input data can be exponentially concentrated (in the number of qubits) towards
some fixed value, leading to an exponential scaling of the number of
measurements required for successful training. We identify four sources that
can lead to concentration including: the expressibility of data embedding,
global measurements, entanglement and noise. For each source, an associated
concentration bound of quantum kernels is analytically derived. Lastly, we show
that when dealing with classical data, training a parametrized data embedding
with a kernel alignment method is also susceptible to exponential
concentration. Our results are verified through numerical simulations for
several QML tasks. Altogether, we provide guidelines indicating that certain
features should be avoided to ensure the efficient evaluation and the
trainability of quantum kernel methods.
- Abstract(参考訳): 量子機械学習(qml)におけるカーネル手法は、最近、データ分析における量子優位性を達成する潜在的な候補として注目されている。
その他の魅力的な特性として、カーネルベースのモデルをトレーニングする場合、トレーニングランドスケープの凸性のために最適なモデルのパラメータを見つけることが保証される。
しかし、これは量子カーネルが量子ハードウェアから効率的に得ることができるという仮定に基づいている。
本研究では,カーネル値を正確に推定するために必要な資源の観点から,量子カーネルのトレーサビリティについて検討する。
ある条件下では、異なる入力データ上の量子カーネルの値は(量子ビット数において)一定の値に向かって指数関数的に集中し、トレーニングの成功に必要な測定値の数を指数関数的に増加させることが示されている。
データ埋め込みの表現可能性、グローバル計測、絡み合い、ノイズなど、集中化につながる4つのソースを特定します。
各ソースについて、関連する量子核の濃度境界は解析的に導出される。
最後に,古典的データを扱う場合,カーネルアライメント法を組み込んだパラメタライズドデータのトレーニングも指数集中の影響を受けやすいことを示す。
本研究は,数種類のQMLタスクの数値シミュレーションにより検証した。
全体として、量子カーネルメソッドの効率的な評価とトレーサビリティを保証するために、特定の機能は避けるべきであることを示すガイドラインを提供する。
関連論文リスト
- The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - In Search of Quantum Advantage: Estimating the Number of Shots in Quantum Kernel Methods [30.565491081930997]
本稿では,カーネル値の所望の精度を推定する手法を開発し,回路実行回数に変換する。
我々は、量子カーネル法は、機械学習のパフォーマンスの観点からだけでなく、リソース消費の文脈からも考慮すべきである、と強調する。
論文 参考訳(メタデータ) (2024-07-22T16:29:35Z) - QUACK: Quantum Aligned Centroid Kernel [0.0]
本稿では、トレーニング中のサンプル数と時間複雑性を線形にスケールする量子カーネルアルゴリズムであるQUICKを紹介する。
提案アルゴリズムでは,MNIST などの高次元データセットを 784 個の特徴量で扱える。
論文 参考訳(メタデータ) (2024-05-01T04:00:09Z) - Power Characterization of Noisy Quantum Kernels [52.47151453259434]
一般化誤差が小さい場合でも,量子カーネル法は予測能力に乏しい。
我々は、量子計算にノイズの多い量子カーネル法を用いるために重要な警告を提供する。
論文 参考訳(メタデータ) (2024-01-31T01:02:16Z) - Neural auto-designer for enhanced quantum kernels [59.616404192966016]
本稿では,問題固有の量子特徴写像の設計を自動化するデータ駆動型手法を提案する。
私たちの研究は、量子機械学習の進歩におけるディープラーニングの実質的な役割を強調します。
論文 参考訳(メタデータ) (2024-01-20T03:11:59Z) - Importance sampling for stochastic quantum simulations [68.8204255655161]
我々は、係数に応じてハミルトン式からサンプリングしてランダムな積公式を構築するqDriftプロトコルを導入する。
サンプリング段階における個別のシミュレーションコストを考慮し、同じ精度でシミュレーションコストを削減可能であることを示す。
格子核効果場理論を用いて数値シミュレーションを行った結果, 実験結果が得られた。
論文 参考訳(メタデータ) (2022-12-12T15:06:32Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Training Quantum Embedding Kernels on Near-Term Quantum Computers [0.08563354084119063]
量子コンピュータのヒルベルト空間にデータを埋め込むことで構築された量子埋め込みカーネル(QEK)は、特定の量子カーネル技術である。
まず、量子埋め込みカーネルを紹介し、ノイズの多い短期量子コンピュータ上でそれらを実現する際に生じる現実的な問題を解析する。
論文 参考訳(メタデータ) (2021-05-05T18:41:13Z) - Towards understanding the power of quantum kernels in the NISQ era [79.8341515283403]
量子カーネルの利点は,大規模データセット,計測回数の少ないもの,システムノイズなどにおいて消失することを示した。
我々の研究は、NISQデバイス上で量子優位性を得るための先進量子カーネルの探索に関する理論的ガイダンスを提供する。
論文 参考訳(メタデータ) (2021-03-31T02:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。