論文の概要: Understanding quantum machine learning also requires rethinking
generalization
- arxiv url: http://arxiv.org/abs/2306.13461v2
- Date: Mon, 12 Feb 2024 16:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 00:42:55.460132
- Title: Understanding quantum machine learning also requires rethinking
generalization
- Title(参考訳): 量子機械学習を理解するには
- Authors: Elies Gil-Fuster, Jens Eisert, Carlos Bravo-Prieto
- Abstract要約: 一般化を理解する従来のアプローチでは、量子モデルの振る舞いを説明できないことを示す。
実験によると、最先端の量子ニューラルネットワークはトレーニングデータのランダムな状態とランダムなラベル付けに正確に適合している。
- 参考スコア(独自算出の注目度): 0.3683202928838613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum machine learning models have shown successful generalization
performance even when trained with few data. In this work, through systematic
randomization experiments, we show that traditional approaches to understanding
generalization fail to explain the behavior of such quantum models. Our
experiments reveal that state-of-the-art quantum neural networks accurately fit
random states and random labeling of training data. This ability to memorize
random data defies current notions of small generalization error,
problematizing approaches that build on complexity measures such as the VC
dimension, the Rademacher complexity, and all their uniform relatives. We
complement our empirical results with a theoretical construction showing that
quantum neural networks can fit arbitrary labels to quantum states, hinting at
their memorization ability. Our results do not preclude the possibility of good
generalization with few training data but rather rule out any possible
guarantees based only on the properties of the model family. These findings
expose a fundamental challenge in the conventional understanding of
generalization in quantum machine learning and highlight the need for a
paradigm shift in the study of quantum models for machine learning tasks.
- Abstract(参考訳): 量子機械学習モデルは、少ないデータでトレーニングしても、一般化性能を成功させた。
本研究では、系統的ランダム化実験を通じて、一般化を理解する伝統的なアプローチではそのような量子モデルの振る舞いを説明できないことを示す。
我々の実験は、最先端の量子ニューラルネットワークがトレーニングデータのランダムな状態とランダムなラベル付けに正確に適合していることを明らかにした。
ランダムデータを記憶するこの能力は、vc次元、ラデマッハ複雑性、およびそれらの一様相対性といった複雑性尺度に基づく問題化アプローチにおいて、小さな一般化誤差という現在の概念に欠点がある。
我々は、量子ニューラルネットワークが任意のラベルを量子状態に適合させ、記憶能力を示す理論的な構成で実験結果を補完する。
本研究の結果は, トレーニングデータが少ない場合のみ, モデルファミリの特性のみに基づく保証を除外して, 良好な一般化の可能性を阻害するものではない。
これらの知見は、従来の量子機械学習の一般化の理解における根本的な課題を明らかにし、機械学習タスクの量子モデルの研究におけるパラダイムシフトの必要性を強調している。
関連論文リスト
- Few measurement shots challenge generalization in learning to classify entanglement [0.0]
本稿では,古典的機械学習手法を量子アルゴリズムと組み合わせたハイブリッド量子学習技術に焦点を当てる。
いくつかの設定では、いくつかの測定ショットから生じる不確実性がエラーの主な原因であることを示す。
従来の影をベースとした推定器を導入し,その性能を向上する。
論文 参考訳(メタデータ) (2024-11-10T21:20:21Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Information-theoretic generalization bounds for learning from quantum data [5.0739329301140845]
古典量子データに基づくトレーニングにより量子学習を記述するための数学的定式化を提案する。
我々は,古典的および量子的情報理論量の観点から,量子学習者の期待する一般化誤差を証明した。
我々の研究は、量子学習に関する量子情報理論的な視点を統一するための基礎を築いた。
論文 参考訳(メタデータ) (2023-11-09T17:21:38Z) - Statistical Complexity of Quantum Learning [32.48879688084909]
本稿では,情報理論を用いた量子学習の複雑さについて概説する。
データ複雑性、コピー複雑性、モデルの複雑さに重点を置いています。
我々は、教師なし学習と教師なし学習の両方に対処することで、量子学習と古典学習の違いを強調する。
論文 参考訳(メタデータ) (2023-09-20T20:04:05Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Quantum data learning for quantum simulations in high-energy physics [55.41644538483948]
本研究では,高エネルギー物理における量子データ学習の実践的問題への適用性について検討する。
我々は、量子畳み込みニューラルネットワークに基づくアンサッツを用いて、基底状態の量子位相を認識できることを数値的に示す。
これらのベンチマークで示された非自明な学習特性の観察は、高エネルギー物理学における量子データ学習アーキテクチャのさらなる探求の動機となる。
論文 参考訳(メタデータ) (2023-06-29T18:00:01Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Generalization despite overfitting in quantum machine learning models [0.0]
量子モデルにおける良性過剰適合のキャラクタリゼーションを提供する。
量子モデルのクラスが如何に類似した特徴を示すかを示す。
我々はこれらの特徴を、局所的な「スパイク」な振る舞いでノイズデータを補間する量子モデルの能力に応じて直感的に説明する。
論文 参考訳(メタデータ) (2022-09-12T18:08:45Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - Out-of-distribution generalization for learning quantum dynamics [2.1503874224655997]
積状態のみを訓練した絡み合った状態に対するユニタリの作用を学習できることが示される。
これは、短期量子ハードウェア上で量子力学を学ぶことの展望を前進させる。
論文 参考訳(メタデータ) (2022-04-21T17:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。