論文の概要: Generalization Error in Quantum Machine Learning in the Presence of Sampling Noise
- arxiv url: http://arxiv.org/abs/2410.14654v2
- Date: Mon, 28 Oct 2024 18:32:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:36:34.460077
- Title: Generalization Error in Quantum Machine Learning in the Presence of Sampling Noise
- Title(参考訳): サンプリングノイズを考慮した量子機械学習における一般化誤差
- Authors: Fangjun Hu, Xun Gao,
- Abstract要約: Eigentask Learningは、出力サンプリングノイズの存在下で無限入力トレーニングデータで学習するフレームワークである。
入力トレーニングデータセットと出力計測サンプリングショットの両方が有限である場合、汎用量子機械学習システムのトレーニングおよび一般化誤差を算出する。
- 参考スコア(独自算出の注目度): 0.8532753451809455
- License:
- Abstract: Tackling output sampling noise due to finite shots of quantum measurement is an unavoidable challenge when extracting information in machine learning with physical systems. A technique called Eigentask Learning was developed recently as a framework for learning with infinite input training data in the presence of output sampling noise. In the work of Eigentask Learning, numerical evidence was presented that extracting low-noise contributions of features can practically improve performance for machine learning tasks, displaying robustness to overfitting and increasing generalization accuracy. However, it remains unsolved to quantitatively characterize generalization errors in situations where the training dataset is finite, while output sampling noise still exists. In this study, we use methodologies from statistical mechanics to calculate the training and generalization errors of a generic quantum machine learning system when the input training dataset and output measurement sampling shots are both finite. Our analytical findings, supported by numerical validation, offer solid justification that Eigentask Learning provides optimal learning in the sense of minimizing generalization errors.
- Abstract(参考訳): 量子測定の有限ショットによる出力サンプリングノイズに対処することは、物理システムを用いた機械学習における情報抽出において避けられない課題である。
近年,出力サンプリングノイズの存在下で無限入力学習データを学習するためのフレームワークとして,Eigentask Learningと呼ばれる技術が開発されている。
The work of Eigentask Learning, numbers evidence that extracting low-noise contributions of features could practically improve performance for machine learning task, displaying robustness to overfitting and increase generalization accuracy。
しかし、トレーニングデータセットが有限である状況では、出力サンプリングノイズがまだ存在するが、一般化誤差を定量的に特徴づけることは未解決である。
本研究では,入力学習データセットと出力計測サンプリングショットの両方が有限である場合,統計力学の手法を用いて,汎用量子機械学習システムのトレーニングおよび一般化誤差を計算する。
数値検証によって支持された分析結果から,Eigentask Learningが一般化誤差を最小限に抑えるために最適な学習を提供するという確証が得られた。
関連論文リスト
- Learning Density Functionals from Noisy Quantum Data [0.0]
ノイズの多い中間スケール量子(NISQ)デバイスは、機械学習(ML)モデルのトレーニングデータを生成するために使用される。
NISQアルゴリズムの典型的なノイズを受ける小さなデータセットからニューラルネットワークMLモデルをうまく一般化できることを示す。
本研究は,NISQデバイスを実用量子シミュレーションに活用するための有望な経路であることを示唆する。
論文 参考訳(メタデータ) (2024-09-04T17:59:55Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Tackling Sampling Noise in Physical Systems for Machine Learning
Applications: Fundamental Limits and Eigentasks [0.0]
本稿では,有限サンプリング雑音下での一般物理系の可解表現能力(REC)を評価するための枠組みを提案する。
次に,低雑音固有タスクの抽出が機械学習タスクの性能向上につながるという実証的証拠を提供する。
我々の発見は量子機械学習とセンシングの応用に幅広い影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-29T21:39:29Z) - Transition Role of Entangled Data in Quantum Machine Learning [51.6526011493678]
エンタングルメントは量子コンピューティングを強化するリソースとして機能する。
最近の進歩は量子力学の学習に対する肯定的な影響を浮き彫りにした。
我々は、絡み合ったデータを用いて量子力学を学習するための量子no-free-lunch(NFL)定理を確立する。
論文 参考訳(メタデータ) (2023-06-06T08:06:43Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - Overfitting in quantum machine learning and entangling dropout [0.9404723842159504]
機械学習の最終的な目標は、目に見えないデータセットの一般化機能を持つモデル関数を構築することである。
モデル関数が表現力過剰な場合、トレーニングデータに過度に適合し、結果として一般化能力を失う可能性がある。
本稿では,量子機械学習システムにおけるこの手法の簡単な類似点であるエンタングリングドロップアウトを提案する。
論文 参考訳(メタデータ) (2022-05-23T16:35:46Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Learnability of Learning Performance and Its Application to Data
Valuation [11.78594243870616]
ほとんどの機械学習(ML)タスクでは、与えられたデータセットで学習パフォーマンスを評価するには、集中的な計算が必要である。
学習性能を効率的に推定する能力は、アクティブラーニング、データ品質管理、データバリュエーションといった幅広いアプリケーションに恩恵をもたらす可能性がある。
最近の実証研究では、多くの一般的なMLモデルに対して、少量のサンプルを用いて任意の入力データセットの学習性能を予測するパラメトリックモデルを正確に学習できることが示されている。
論文 参考訳(メタデータ) (2021-07-13T18:56:04Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Statistical Limits of Supervised Quantum Learning [90.0289160657379]
精度の制約を考慮すると、教師付き学習のための量子機械学習アルゴリズムは入力次元における多対数ランタイムを達成できないことを示す。
より効率的な古典的アルゴリズムよりも、教師あり学習のための量子機械学習アルゴリズムの方が、ほとんどの場合スピードアップできると結論付けている。
論文 参考訳(メタデータ) (2020-01-28T17:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。