論文の概要: Near-optimal Prediction Error Estimation for Quantum Machine Learning Models
- arxiv url: http://arxiv.org/abs/2510.18208v1
- Date: Tue, 21 Oct 2025 01:22:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.752242
- Title: Near-optimal Prediction Error Estimation for Quantum Machine Learning Models
- Title(参考訳): 量子機械学習モデルにおける近似予測誤差の推定
- Authors: Qiuhao Chen, Yuling Jiao, Yinan Li, Xiliang Lu, Jerry Zhijian Yang,
- Abstract要約: 量子機械学習(QML)モデルは、基礎となるデータセットへの限られたアクセスによって大きく影響を受ける可能性がある。
これまでの研究は、有限のトレーニングセットで訓練された任意のQMLモデルに対する一般化誤差境界の証明に重点を置いてきた。
有限のトレーニングセットでトレーニングすることで得られる最適QMLモデルに注目し,トレーニング可能なゲートの数とトレーニングセットのサイズを限定して,厳密な予測誤差を確立する。
- 参考スコア(独自算出の注目度): 20.38743409927907
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding the theoretical capabilities and limitations of quantum machine learning (QML) models to solve machine learning tasks is crucial to advancing both quantum software and hardware developments. Similarly to the classical setting, the performance of QML models can be significantly affected by the limited access to the underlying data set. Previous studies have focused on proving generalization error bounds for any QML models trained on a limited finite training set. We focus on the optimal QML models obtained by training them on a finite training set and establish a tight prediction error bound in terms of the number of trainable gates and the size of training sets. To achieve this, we derive covering number upper bounds and packing number lower bounds for the data re-uploading QML models and linear QML models, respectively, which may be of independent interest. We support our theoretical findings by numerically simulating the QML strategies for function approximation and quantum phase recognition.
- Abstract(参考訳): 機械学習タスクを解決するための量子機械学習(QML)モデルの理論的能力と限界を理解することは、量子ソフトウェアとハードウェアの開発を前進させる上で不可欠である。
古典的な設定と同様に、QMLモデルの性能は、基礎となるデータセットへの限られたアクセスによって大きく影響を受ける。
これまでの研究は、有限のトレーニングセットで訓練された任意のQMLモデルに対する一般化誤差境界の証明に重点を置いてきた。
有限のトレーニングセットでトレーニングすることで得られる最適QMLモデルに注目し,トレーニング可能なゲートの数とトレーニングセットのサイズを限定して,厳密な予測誤差を確立する。
そこで本研究では,データ再アップロード型QMLモデルと線形QMLモデルにおいて,それぞれ有意な有意な有意な有意な有意な有意な有意な有意な有意な有意性を示す。
我々は、関数近似と量子位相認識のためのQML戦略を数値シミュレーションすることで、理論的な結果を支持する。
関連論文リスト
- Quantum-Assisted Machine Learning Models for Enhanced Weather Prediction [0.30903157777186735]
量子機械学習(QML)は、予測モデリング能力を改善するために量子コンピューティングを使用することで、天気予報に対する革命的なアプローチとして提示される。
本研究では,量子ゲート型リカレントユニット(QGRU),量子ニューラルネットワーク(QNN),量子長短期記憶(QLSTM),変分量子回路(VQC),量子支援ベクトルマシン(QSVM)などのQMLモデルを適用する。
その結果、QMLモデルは予測と分類の両方において、特に二項分類において妥当な精度を達成できることを示した。
本研究は、天気予報・舗装におけるQMLの実現可能性に関する知見を提供する。
論文 参考訳(メタデータ) (2025-03-30T12:03:27Z) - Learning to Measure Quantum Neural Networks [10.617463958884528]
本稿では,量子系の可観測性,特にエルミート行列学習性を実現する新しい手法を提案する。
本手法では,パラメータ化可観測関数を通常の量子回路パラメータとともに学習するエンド・ツー・エンドの微分可能学習フレームワークを特徴とする。
数値シミュレーションにより,提案手法は変動量子回路の観測値の同定が可能であり,その結果が得られた。
論文 参考訳(メタデータ) (2025-01-10T02:28:19Z) - Leveraging Pre-Trained Neural Networks to Enhance Machine Learning with Variational Quantum Circuits [48.33631905972908]
我々は、事前学習されたニューラルネットワークを用いて変分量子回路(VQC)を強化する革新的なアプローチを導入する。
この手法は近似誤差をキュービット数から効果的に分離し、制約条件の必要性を除去する。
我々の結果はヒトゲノム解析などの応用にまで拡張され、我々のアプローチの幅広い適用性を示している。
論文 参考訳(メタデータ) (2024-11-13T12:03:39Z) - Computable Model-Independent Bounds for Adversarial Quantum Machine Learning [4.857505043608425]
本稿では、量子ベースの逆数攻撃に対するモデルレジリエンスを評価する際に、逆数誤差の近似的下界について紹介する。
最良の場合、実験誤差は推定境界より10%だけ高く、量子モデルの本質的なロバスト性を示す。
論文 参考訳(メタデータ) (2024-11-11T10:56:31Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Transition Role of Entangled Data in Quantum Machine Learning [51.6526011493678]
エンタングルメントは量子コンピューティングを強化するリソースとして機能する。
最近の進歩は量子力学の学習に対する肯定的な影響を浮き彫りにした。
我々は、絡み合ったデータを用いて量子力学を学習するための量子no-free-lunch(NFL)定理を確立する。
論文 参考訳(メタデータ) (2023-06-06T08:06:43Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Subtleties in the trainability of quantum machine learning models [0.0]
本稿では,変分量子アルゴリズムの勾配スケーリング結果を用いて,量子機械学習モデルの勾配スケーリングについて検討する。
以上の結果から,VQAトレーサビリティの低下がQMLのバレンプラトーなどの問題を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-27T20:28:53Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z) - Structural risk minimization for quantum linear classifiers [0.0]
qml(quantum machine learning)は、量子コンピューティングの短期的"キラーアプリケーション"の典型的な候補の1つとして注目される。
明示的および暗黙的量子線形分類器と呼ばれる2つの密接に関連したQMLモデルの容量測定を研究する。
我々は,QMLモデルで使用される観測値のランクとフロベニウスノルムが,モデルのキャパシティを密接に制御していることを確認した。
論文 参考訳(メタデータ) (2021-05-12T10:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。