論文の概要: Coreset selection can accelerate quantum machine learning models with
provable generalization
- arxiv url: http://arxiv.org/abs/2309.10441v2
- Date: Tue, 12 Dec 2023 23:24:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 20:29:08.563335
- Title: Coreset selection can accelerate quantum machine learning models with
provable generalization
- Title(参考訳): coreset selectionは、証明可能な一般化による量子機械学習モデルを高速化する
- Authors: Yiming Huang, Huiyuan Wang, Yuxuan Du, Xiao Yuan
- Abstract要約: 量子ニューラルネットワーク(QNN)と量子カーネルは、量子機械学習の領域において顕著な存在である。
我々は、QNNと量子カーネルのトレーニングを高速化することを目的とした、コアセット選択という統一的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 6.733416056422756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum neural networks (QNNs) and quantum kernels stand as prominent figures
in the realm of quantum machine learning, poised to leverage the nascent
capabilities of near-term quantum computers to surmount classical machine
learning challenges. Nonetheless, the training efficiency challenge poses a
limitation on both QNNs and quantum kernels, curbing their efficacy when
applied to extensive datasets. To confront this concern, we present a unified
approach: coreset selection, aimed at expediting the training of QNNs and
quantum kernels by distilling a judicious subset from the original training
dataset. Furthermore, we analyze the generalization error bounds of QNNs and
quantum kernels when trained on such coresets, unveiling the comparable
performance with those training on the complete original dataset. Through
systematic numerical simulations, we illuminate the potential of coreset
selection in expediting tasks encompassing synthetic data classification,
identification of quantum correlations, and quantum compiling. Our work offers
a useful way to improve diverse quantum machine learning models with a
theoretical guarantee while reducing the training cost.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)と量子カーネルは、量子機械学習の領域で目立った存在であり、短期量子コンピュータの初期段階の能力を活用して、古典的な機械学習課題を克服する。
それでも、トレーニング効率の課題はqnnと量子カーネルの両方に制限を与え、広範なデータセットに適用した場合の有効性を抑制する。
この懸念に対処するために、コアセット選択(coreset selection)という、QNNと量子カーネルのトレーニングの迅速化を目的として、元のトレーニングデータセットから偏差部分集合を蒸留する、統一的なアプローチを提案する。
さらに,そのようなコアセット上でのトレーニング時のqnnと量子カーネルの一般化誤差境界を分析し,完全なオリジナルデータセットでのトレーニングと同等の性能を示す。
体系的な数値シミュレーションにより,合成データ分類,量子相関の同定,量子コンパイルを含むタスクの迅速化におけるコアセット選択の可能性を明らかにする。
私たちの研究は、トレーニングコストを削減しつつ、理論的保証で多様な量子機械学習モデルを改善するための有用な方法を提供します。
関連論文リスト
- Quantum reservoir computing on random regular graphs [0.0]
量子貯水池コンピューティング(QRC)は、入力駆動多体量子システムと古典的な学習技術を組み合わせた低複雑性学習パラダイムである。
我々は、情報局在化、動的量子相関、および乱れハミルトニアンの多体構造について研究する。
そこで本研究では、乱れたアナログ量子学習プラットフォームの最適設計のためのガイドラインを提供する。
論文 参考訳(メタデータ) (2024-09-05T16:18:03Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Quantum-Train: Rethinking Hybrid Quantum-Classical Machine Learning in the Model Compression Perspective [7.7063925534143705]
本稿では,量子コンピューティングと機械学習アルゴリズムを統合する新しいアプローチであるQuantum-Train(QT)フレームワークを紹介する。
QTは、古典的なマッピングモデルと並んで量子ニューラルネットワークを利用することで、顕著な結果を得る。
論文 参考訳(メタデータ) (2024-05-18T14:35:57Z) - Neural auto-designer for enhanced quantum kernels [59.616404192966016]
本稿では,問題固有の量子特徴写像の設計を自動化するデータ駆動型手法を提案する。
私たちの研究は、量子機械学習の進歩におけるディープラーニングの実質的な役割を強調します。
論文 参考訳(メタデータ) (2024-01-20T03:11:59Z) - Quantum Generative Adversarial Networks: Bridging Classical and Quantum
Realms [0.6827423171182153]
GAN(Generative Adversarial Networks)領域における古典的および量子コンピューティングパラダイムの相乗的融合について検討する。
我々の目的は、量子計算要素を従来のGANアーキテクチャにシームレスに統合し、トレーニングプロセスの強化のために新しい経路を開放することである。
この研究は量子化機械学習の最前線に位置し、量子システムの計算能力を活用するための重要な一歩である。
論文 参考訳(メタデータ) (2023-12-15T16:51:36Z) - Expressibility-induced Concentration of Quantum Neural Tangent Kernels [4.561685127984694]
量子タンジェントカーネルモデルのトレーニング可能性と表現性の関係について検討する。
大域的損失関数に対して、大域的および局所的な量子符号化の両方の高表現性は、量子接核値の指数集中を0に導くことを厳密に証明する。
我々の発見は量子ニューラル・タンジェント・カーネルの重要な特徴を明らかにし、広い量子変動回路モデルの設計に有用な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-08T19:00:01Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Comparing concepts of quantum and classical neural network models for
image classification task [0.456877715768796]
本資料は、ハイブリッド量子古典ニューラルネットワークのトレーニングと性能に関する実験結果を含む。
シミュレーションは時間を要するが、量子ネットワークは時間を要するが、古典的なネットワークを克服する。
論文 参考訳(メタデータ) (2021-08-19T18:49:30Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。