論文の概要: Quantum Kernel Machine Learning With Continuous Variables
- arxiv url: http://arxiv.org/abs/2401.05647v5
- Date: Wed, 04 Dec 2024 02:31:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:04:49.444479
- Title: Quantum Kernel Machine Learning With Continuous Variables
- Title(参考訳): 連続変数を用いた量子カーネル機械学習
- Authors: Laura J. Henderson, Rishi Goel, Sally Shrapnel,
- Abstract要約: 量子カーネルを連続変数量子コンピューティングプラットフォームのための閉形式関数として表現する。
すべての核がガウス函数の積として表現され、特徴写像のパラメータの代数函数として表されることを示す。
我々は、GKP状態符号化のような無限星級数の特徴写像で定義されるカーネルを、有限星級数の特徴写像で定義されるカーネルによって任意に近似することができることを証明した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The popular qubit framework has dominated recent work on quantum kernel machine learning, with results characterising expressivity, learnability and generalisation. As yet, there is no comparative framework to understand these concepts for continuous variable (CV) quantum computing platforms. In this paper we represent CV quantum kernels as closed form functions and use this representation to provide several important theoretical insights. We derive a general closed form solution for all CV quantum kernels and show every such kernel can be expressed as the product of a Gaussian and an algebraic function of the parameters of the feature map. Furthermore, in the multi-mode case, we present quantification of a quantum-classical separation for all quantum kernels via a hierarchical notion of the ``stellar rank" of the quantum kernel feature map. We then prove kernels defined by feature maps of infinite stellar rank, such as GKP-state encodings, can be approximated arbitrarily well by kernels defined by feature maps of finite stellar rank. Finally, we simulate learning with a single-mode displaced Fock state encoding and show that (i) accuracy on our specific task (an annular data set) increases with stellar rank, (ii) for underfit models, accuracy can be improved by increasing a bandwidth hyperparameter, and (iii) for noisy data that is overfit, decreasing the bandwidth will improve generalisation but does so at the cost of effective stellar rank.
- Abstract(参考訳): 人気の高いqubitフレームワークは、量子カーネル機械学習に関する最近の研究を支配しており、表現性、学習可能性、一般化を特徴付けている。
今のところ、連続変数(CV)量子コンピューティングプラットフォームにおいて、これらの概念を理解するための比較フレームワークは存在しない。
本稿では,CV量子カーネルを閉形式関数として表現し,この表現を用いていくつかの重要な理論的知見を提供する。
すべてのCV量子核に対して一般閉形式解を導出し、そのような全ての核がガウス函数と特徴写像のパラメータの代数函数の積として表現できることを示す。
さらに、マルチモードの場合、量子カーネル特徴写像の「恒星ランク」の階層的概念を通じて、全ての量子カーネルに対して量子古典的分離の量子化を示す。
そして、GKP状態符号化のような無限星級数の特徴写像で定義されるカーネルを、有限星級数の特徴写像で定義されるカーネルで任意に近似できることを示す。
最後に、単一モードのFock状態の符号化で学習をシミュレートし、そのことを示す。
i) 特定のタスク(環状データセット)の精度は、星級によって増加する。
(ii)不適合モデルでは、帯域幅ハイパーパラメータを増大させることで精度を向上させることができる。
第三に、過度に適合するノイズデータの場合、帯域幅を減らせば一般化が向上するが、有効星級のコストがかかる。
関連論文リスト
- Extending Quantum Perceptrons: Rydberg Devices, Multi-Class Classification, and Error Tolerance [67.77677387243135]
量子ニューロモーフィックコンピューティング(QNC)は、量子計算とニューラルネットワークを融合して、量子機械学習(QML)のためのスケーラブルで耐雑音性のあるアルゴリズムを作成する
QNCの中核は量子パーセプトロン(QP)であり、相互作用する量子ビットのアナログダイナミクスを利用して普遍的な量子計算を可能にする。
論文 参考訳(メタデータ) (2024-11-13T23:56:20Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Power Characterization of Noisy Quantum Kernels [52.47151453259434]
一般化誤差が小さい場合でも,量子カーネル法は予測能力に乏しい。
我々は、量子計算にノイズの多い量子カーネル法を用いるために重要な警告を提供する。
論文 参考訳(メタデータ) (2024-01-31T01:02:16Z) - Neural auto-designer for enhanced quantum kernels [59.616404192966016]
本稿では,問題固有の量子特徴写像の設計を自動化するデータ駆動型手法を提案する。
私たちの研究は、量子機械学習の進歩におけるディープラーニングの実質的な役割を強調します。
論文 参考訳(メタデータ) (2024-01-20T03:11:59Z) - A Unified Framework for Trace-induced Quantum Kernels [0.0]
量子カーネル法は、特定の機械学習タスクに対して実用的な量子優位性を達成するための有望な候補である。
この研究では、すべてのトレース誘起量子カーネルを共通のフレームワークに結合する。
局所的に投影されたカーネルに基づくモデルが,グローバルな忠実度量子カーネルに匹敵する性能を達成できることを数値的に示す。
論文 参考訳(メタデータ) (2023-11-22T17:50:00Z) - Higher-order topological kernels via quantum computation [68.8204255655161]
トポロジカルデータ分析(TDA)は、複雑なデータから意味のある洞察を抽出する強力なツールとして登場した。
本稿では,ベッチ曲線の次数増加に基づくBettiカーネルの量子的定義法を提案する。
論文 参考訳(メタデータ) (2023-07-14T14:48:52Z) - Quantum-Classical Multiple Kernel Learning [0.0]
機械学習におけるカーネルメソッドは、将来的にそのような改善を実現することができる分野のひとつだ。
小さくてノイズの多い量子コンピュータは、データの類似性のユニークな概念を捉える古典的なパラメトリック量子カーネルを評価することができる。
我々は、MKL(Multiple kernel)の文脈において、古典、量子量子、量子古典およびQCカーネルのペアワイズ組み合わせを考える。
本手法は,MKL設定における各種測定値の性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-05-28T12:29:04Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Covariant quantum kernels for data with group structure [1.51714450051254]
グループ構造を持つデータに使用できる量子カーネルのクラスを紹介する。
本手法を,グループにおける多くの本質的な学習課題の構造を具現化したコセット空間上の学習問題に適用する。
論文 参考訳(メタデータ) (2021-05-07T17:38:58Z) - Training Quantum Embedding Kernels on Near-Term Quantum Computers [0.08563354084119063]
量子コンピュータのヒルベルト空間にデータを埋め込むことで構築された量子埋め込みカーネル(QEK)は、特定の量子カーネル技術である。
まず、量子埋め込みカーネルを紹介し、ノイズの多い短期量子コンピュータ上でそれらを実現する際に生じる現実的な問題を解析する。
論文 参考訳(メタデータ) (2021-05-05T18:41:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。