論文の概要: On the expressivity of embedding quantum kernels
- arxiv url: http://arxiv.org/abs/2309.14419v1
- Date: Mon, 25 Sep 2023 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 16:24:53.066703
- Title: On the expressivity of embedding quantum kernels
- Title(参考訳): 埋め込み量子核の表現性について
- Authors: Elies Gil-Fuster, Jens Eisert, Vedran Dunjko
- Abstract要約: 任意のカーネル関数に対して、対応する量子特徴写像と埋め込み量子カーネルが存在することが分かる。
シフト不変カーネルに対しては、ランダムフーリエ特徴の技法を用いて、全てのカーネルの広いクラス内でそれらが普遍的であることを示す。
この結果を合成カーネルと呼ばれる新しいクラスに拡張し、最近の研究で導入された投影量子カーネルも含むことを示した。
- 参考スコア(独自算出の注目度): 1.8416014644193066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most natural connections between quantum and classical machine
learning has been established in the context of kernel methods. Kernel methods
rely on kernels, which are inner products of feature vectors living in large
feature spaces. Quantum kernels are typically evaluated by explicitly
constructing quantum feature states and then taking their inner product, here
called embedding quantum kernels. Since classical kernels are usually evaluated
without using the feature vectors explicitly, we wonder how expressive
embedding quantum kernels are. In this work, we raise the fundamental question:
can all quantum kernels be expressed as the inner product of quantum feature
states? Our first result is positive: Invoking computational universality, we
find that for any kernel function there always exists a corresponding quantum
feature map and an embedding quantum kernel. The more operational reading of
the question is concerned with efficient constructions, however. In a second
part, we formalize the question of universality of efficient embedding quantum
kernels. For shift-invariant kernels, we use the technique of random Fourier
features to show that they are universal within the broad class of all kernels
which allow a variant of efficient Fourier sampling. We then extend this result
to a new class of so-called composition kernels, which we show also contains
projected quantum kernels introduced in recent works. After proving the
universality of embedding quantum kernels for both shift-invariant and
composition kernels, we identify the directions towards new, more exotic, and
unexplored quantum kernel families, for which it still remains open whether
they correspond to efficient embedding quantum kernels.
- Abstract(参考訳): 量子と古典的機械学習の最も自然な関係の1つは、カーネルメソッドの文脈で確立されている。
カーネル法は、大きな特徴空間に存在する特徴ベクトルの内部積であるカーネルに依存している。
量子カーネルは通常、量子特徴状態を明示的に構築し、内部積(埋め込み量子カーネル)を取ることで評価される。
古典的カーネルは通常、特徴ベクトルを明示的に使わずに評価されるので、量子カーネルの表現的埋め込みはどの程度か疑問である。
この研究において、我々は基本的な疑問を提起する: すべての量子核は、量子的特徴状態の内積として表現できるのか?
計算の普遍性を呼び出すと、任意のカーネル関数に対して常に対応する量子特徴写像と埋め込み量子核が存在することが分かる。
しかし、問題のより操作的な読み出しは効率的な構成に関係している。
第2部では、効率的な埋め込み量子核の普遍性の問題を定式化する。
シフト不変なカーネルでは、ランダムフーリエ特徴の技法を用いて、効率的フーリエサンプリングの変種を可能にする全てのカーネルの広いクラス内で普遍的であることを示す。
次に、この結果をいわゆる合成カーネルの新たなクラスに拡張し、近年の研究で導入された投影量子カーネルも含むことを示した。
シフト不変および合成カーネルの両方に量子カーネルを埋め込むことの普遍性を証明した後、新しい、よりエキゾチックで、探索されていない量子カーネルファミリーへの方向を同定する。
関連論文リスト
- The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Power Characterization of Noisy Quantum Kernels [52.47151453259434]
一般化誤差が小さい場合でも,量子カーネル法は予測能力に乏しい。
我々は、量子計算にノイズの多い量子カーネル法を用いるために重要な警告を提供する。
論文 参考訳(メタデータ) (2024-01-31T01:02:16Z) - Quantum Kernel Machine Learning With Continuous Variables [0.0]
人気の高いqubitフレームワークは、量子カーネル機械学習に関する最近の研究を支配している。
連続変数(CV)量子コンピューティングプラットフォームに対するこれらの概念を理解するための比較フレームワークは存在しない。
論文 参考訳(メタデータ) (2024-01-11T03:49:40Z) - A Unified Framework for Trace-induced Quantum Kernels [0.0]
量子カーネル法は、特定の機械学習タスクに対して実用的な量子優位性を達成するための有望な候補である。
この研究では、すべてのトレース誘起量子カーネルを共通のフレームワークに結合する。
局所的に投影されたカーネルに基づくモデルが,グローバルな忠実度量子カーネルに匹敵する性能を達成できることを数値的に示す。
論文 参考訳(メタデータ) (2023-11-22T17:50:00Z) - The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for
Deep Quantum Machine Learning [52.77024349608834]
古典的なディープニューラルネットワークの量子アナログを構築することは、量子コンピューティングにおける根本的な課題である。
鍵となる問題は、古典的なディープラーニングの本質的な非線形性にどのように対処するかである。
我々は、深層機械学習のこれらの側面を複製できる量子機械学習の定式化であるQuantum Path Kernelを紹介する。
論文 参考訳(メタデータ) (2022-12-22T16:06:24Z) - Numerical evidence against advantage with quantum fidelity kernels on
classical data [12.621805903645711]
量子核は、量子ビットの数が増加するにつれてスペクトルの指数的な「平坦化」に悩まされることを示す。
これまでに研究されてきた複数の量子特徴写像と、合成データと実データの両方を利用した、この現象の広範な数値的証拠を提供する。
その結果、量子カーネルの帰納バイアスを制御するために新しい手法が開発されない限り、古典的なデータに量子的優位性をもたらすことはありそうにないことがわかった。
論文 参考訳(メタデータ) (2022-11-29T19:23:11Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Genuine multipartite entanglement and quantum coherence in an
electron-positron system: Relativistic covariance [117.44028458220427]
ローレンツブースト下での真の多粒子絡みと量子コヒーレンスの両方の挙動を解析する。
これらの量子資源の与えられた組み合わせはローレンツ不変量を形成する。
論文 参考訳(メタデータ) (2021-11-26T17:22:59Z) - Covariant quantum kernels for data with group structure [1.51714450051254]
グループ構造を持つデータに使用できる量子カーネルのクラスを紹介する。
本手法を,グループにおける多くの本質的な学習課題の構造を具現化したコセット空間上の学習問題に適用する。
論文 参考訳(メタデータ) (2021-05-07T17:38:58Z) - Training Quantum Embedding Kernels on Near-Term Quantum Computers [0.08563354084119063]
量子コンピュータのヒルベルト空間にデータを埋め込むことで構築された量子埋め込みカーネル(QEK)は、特定の量子カーネル技術である。
まず、量子埋め込みカーネルを紹介し、ノイズの多い短期量子コンピュータ上でそれらを実現する際に生じる現実的な問題を解析する。
論文 参考訳(メタデータ) (2021-05-05T18:41:13Z) - Towards understanding the power of quantum kernels in the NISQ era [79.8341515283403]
量子カーネルの利点は,大規模データセット,計測回数の少ないもの,システムノイズなどにおいて消失することを示した。
我々の研究は、NISQデバイス上で量子優位性を得るための先進量子カーネルの探索に関する理論的ガイダンスを提供する。
論文 参考訳(メタデータ) (2021-03-31T02:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。