論文の概要: Deterministic and random features for large-scale quantum kernel machine
- arxiv url: http://arxiv.org/abs/2209.01958v1
- Date: Mon, 5 Sep 2022 13:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 20:58:05.387887
- Title: Deterministic and random features for large-scale quantum kernel machine
- Title(参考訳): 大規模量子カーネルマシンにおける決定論的・ランダム特徴
- Authors: Kouhei Nakaji, Hiroyuki Tezuka, Naoki Yamamoto
- Abstract要約: 提案した決定論的およびランダムな特徴を用いて量子カーネル法(QKM)をスケーラブルにすることができることを示す。
O(1,000) sim O(10,000)$トレーニングデータを含むデータセットを用いた数値実験は,本手法の有効性を裏付けるものである。
- 参考スコア(独自算出の注目度): 0.9404723842159504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum machine learning (QML) is the spearhead of quantum computer
applications. In particular, quantum neural networks (QNN) are actively studied
as the method that works both in near-term quantum computers and fault-tolerant
quantum computers. Recent studies have shown that supervised machine learning
with QNN can be interpreted as the quantum kernel method (QKM), suggesting that
enhancing the practicality of the QKM is the key to building near-term
applications of QML. However, the QKM is also known to have two severe issues.
One is that the QKM with the (inner-product based) quantum kernel defined in
the original large Hilbert space does not generalize; namely, the model fails
to find patterns of unseen data. The other one is that the classical
computational cost of the QKM increases at least quadratically with the number
of data, and therefore, QKM is not scalable with data size. This paper aims to
provide algorithms free from both of these issues. That is, for a class of
quantum kernels with generalization capability, we show that the QKM with those
quantum kernels can be made scalable by using our proposed deterministic and
random features. Our numerical experiment, using datasets including $O(1,000)
\sim O(10,000)$ training data, supports the validity of our method.
- Abstract(参考訳): 量子機械学習(QML)は、量子コンピュータアプリケーションの先駆者である。
特に、量子ニューラルネットワーク(QNN)は、短期量子コンピュータとフォールトトレラント量子コンピュータの両方で動作する方法として積極的に研究されている。
近年の研究では、QNNを用いた教師付き機械学習が量子カーネル法(QKM)として解釈できることが示されており、QKMの実用性の向上がQMLの短期的応用構築の鍵であることを示唆している。
しかし、QKMには2つの深刻な問題があることも知られている。
一つは、元の大きなヒルベルト空間で定義される(内積に基づく)量子核を持つqkmは一般化しない、すなわち、モデルが見当たらないデータのパターンを見つけることができないことである。
もうひとつは、QKMの古典的な計算コストがデータ数で少なくとも2次的に増加するため、QKMはデータサイズでスケーラブルではないことである。
本稿では,これら2つの問題から自由なアルゴリズムを提供することを目標とする。
すなわち、一般化能力を持つ量子カーネルのクラスに対して、提案した決定論的およびランダムな特徴を用いて量子カーネルを持つQKMをスケーラブルにすることができることを示す。
O(1,000) \sim O(10,000)$トレーニングデータを含むデータセットを用いて,本手法の有効性を検証した。
関連論文リスト
- QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Quantum computing quantum Monte Carlo with hybrid tensor network for electronic structure calculations [3.642843803494657]
本稿では,QC-QMCとハイブリッドテンソルネットワークを組み合わせて,QC-QMCの適用性を1つの量子デバイスサイズを超えて拡張するアルゴリズムを提案する。
本アルゴリズムは, ハイゼンベルク連鎖モデル, グラファイト系ハバードモデル, 水素平面モデル, モノアリルビイミダゾールをフル構成相互作用QMCを用いて評価した。
論文 参考訳(メタデータ) (2023-03-31T14:38:40Z) - Quantum Machine Learning: from physics to software engineering [58.720142291102135]
古典的な機械学習アプローチが量子コンピュータの設備改善にどのように役立つかを示す。
量子アルゴリズムと量子コンピュータは、古典的な機械学習タスクを解くのにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-04T23:37:45Z) - Universal expressiveness of variational quantum classifiers and quantum
kernels for support vector machines [0.0]
量子カーネルを用いた変分量子分類器(VQC)とサポートベクトルマシン(QSVM)は、k-Forrelation問題に基づく分類問題を解くことができることを示す。
この結果から,任意のBQP問題に対して,VQCとQSVMを効率的に解ける特徴写像と量子カーネルが存在することが示唆された。
論文 参考訳(メタデータ) (2022-07-12T22:03:31Z) - Open Source Variational Quantum Eigensolver Extension of the Quantum
Learning Machine (QLM) for Quantum Chemistry [0.0]
我々は,化学に着想を得た適応手法の使用と開発のための新しいオープンソースQCパッケージ,Open-VQEを紹介した。
Atos Quantum Learning Machine (QLM)は、コンピュータプログラムを記述、最適化できる汎用プログラミングフレームワークである。
OpenVQEとともに、新しいオープンソースモジュールであるmyQLMFermion(QC開発において重要な重要なQLMリソースを含む)を紹介します。
論文 参考訳(メタデータ) (2022-06-17T14:24:22Z) - Machine learning applications for noisy intermediate-scale quantum
computers [0.0]
NISQコンピュータに適した3つの量子機械学習アプリケーションを開発し研究する。
これらのアルゴリズムは本質的に変動し、基礎となる量子機械学習モデルとしてパラメータ化量子回路(PQC)を使用する。
近似量子クローニングの領域において,データを自然界において量子化する変分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-19T09:26:57Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - Quantum Machine Learning for Software Supply Chain Attacks: How Far Can
We Go? [5.655023007686363]
本稿では、量子機械学習(QML)と呼ばれる機械学習アルゴリズムに適用されたQCの高速化性能について分析する。
実際の量子コンピュータの限界により、QML法はQiskitやIBM Quantumといったオープンソースの量子シミュレータ上で実装された。
興味深いことに、実験結果は、SSC攻撃の古典的アプローチと比較して計算時間と精度の低下を示すことによって、QCの約束を早めることと異なる。
論文 参考訳(メタデータ) (2022-04-04T21:16:06Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Towards understanding the power of quantum kernels in the NISQ era [79.8341515283403]
量子カーネルの利点は,大規模データセット,計測回数の少ないもの,システムノイズなどにおいて消失することを示した。
我々の研究は、NISQデバイス上で量子優位性を得るための先進量子カーネルの探索に関する理論的ガイダンスを提供する。
論文 参考訳(メタデータ) (2021-03-31T02:41:36Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。