論文の概要: Understanding quantum machine learning also requires rethinking
generalization
- arxiv url: http://arxiv.org/abs/2306.13461v2
- Date: Mon, 12 Feb 2024 16:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 00:42:55.460132
- Title: Understanding quantum machine learning also requires rethinking
generalization
- Title(参考訳): 量子機械学習を理解するには
- Authors: Elies Gil-Fuster, Jens Eisert, Carlos Bravo-Prieto
- Abstract要約: 一般化を理解する従来のアプローチでは、量子モデルの振る舞いを説明できないことを示す。
実験によると、最先端の量子ニューラルネットワークはトレーニングデータのランダムな状態とランダムなラベル付けに正確に適合している。
- 参考スコア(独自算出の注目度): 0.3683202928838613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum machine learning models have shown successful generalization
performance even when trained with few data. In this work, through systematic
randomization experiments, we show that traditional approaches to understanding
generalization fail to explain the behavior of such quantum models. Our
experiments reveal that state-of-the-art quantum neural networks accurately fit
random states and random labeling of training data. This ability to memorize
random data defies current notions of small generalization error,
problematizing approaches that build on complexity measures such as the VC
dimension, the Rademacher complexity, and all their uniform relatives. We
complement our empirical results with a theoretical construction showing that
quantum neural networks can fit arbitrary labels to quantum states, hinting at
their memorization ability. Our results do not preclude the possibility of good
generalization with few training data but rather rule out any possible
guarantees based only on the properties of the model family. These findings
expose a fundamental challenge in the conventional understanding of
generalization in quantum machine learning and highlight the need for a
paradigm shift in the study of quantum models for machine learning tasks.
- Abstract(参考訳): 量子機械学習モデルは、少ないデータでトレーニングしても、一般化性能を成功させた。
本研究では、系統的ランダム化実験を通じて、一般化を理解する伝統的なアプローチではそのような量子モデルの振る舞いを説明できないことを示す。
我々の実験は、最先端の量子ニューラルネットワークがトレーニングデータのランダムな状態とランダムなラベル付けに正確に適合していることを明らかにした。
ランダムデータを記憶するこの能力は、vc次元、ラデマッハ複雑性、およびそれらの一様相対性といった複雑性尺度に基づく問題化アプローチにおいて、小さな一般化誤差という現在の概念に欠点がある。
我々は、量子ニューラルネットワークが任意のラベルを量子状態に適合させ、記憶能力を示す理論的な構成で実験結果を補完する。
本研究の結果は, トレーニングデータが少ない場合のみ, モデルファミリの特性のみに基づく保証を除外して, 良好な一般化の可能性を阻害するものではない。
これらの知見は、従来の量子機械学習の一般化の理解における根本的な課題を明らかにし、機械学習タスクの量子モデルの研究におけるパラダイムシフトの必要性を強調している。
関連論文リスト
- Information-theoretic generalization bounds for learning from quantum
data [3.618615996077951]
古典量子データに基づくトレーニングにより量子学習を記述するための数学的定式化を提案する。
我々は,古典的および量子的情報理論量の観点から,量子学習者の期待する一般化誤差を証明した。
我々の研究は、量子学習に関する量子情報理論的な視点を統一するための基礎を築いた。
論文 参考訳(メタデータ) (2023-11-09T17:21:38Z) - A General Approach to Dropout in Quantum Neural Networks [1.5771347525430772]
オーバーフィッティング(Overfitting)とは、与えられたモデルがトレーニングデータを過度に学習した場合に発生する現象である。
量子ニューラルネットワークが学習モデルとして登場したことで、オーバーフィッティングが問題になるかもしれない。
論文 参考訳(メタデータ) (2023-10-06T09:39:30Z) - Statistical Complexity of Quantum Learning [35.49167661307331]
本稿では,情報理論を用いた量子学習の複雑さについて概説する。
データ複雑性、コピー複雑性、モデルの複雑さに重点を置いています。
我々は、教師なし学習と教師なし学習の両方に対処することで、量子学習と古典学習の違いを強調する。
論文 参考訳(メタデータ) (2023-09-20T20:04:05Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Quantum data learning for quantum simulations in high-energy physics [55.41644538483948]
本研究では,高エネルギー物理における量子データ学習の実践的問題への適用性について検討する。
我々は、量子畳み込みニューラルネットワークに基づくアンサッツを用いて、基底状態の量子位相を認識できることを数値的に示す。
これらのベンチマークで示された非自明な学習特性の観察は、高エネルギー物理学における量子データ学習アーキテクチャのさらなる探求の動機となる。
論文 参考訳(メタデータ) (2023-06-29T18:00:01Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Generalization despite overfitting in quantum machine learning models [0.0]
量子モデルにおける良性過剰適合のキャラクタリゼーションを提供する。
量子モデルのクラスが如何に類似した特徴を示すかを示す。
我々はこれらの特徴を、局所的な「スパイク」な振る舞いでノイズデータを補間する量子モデルの能力に応じて直感的に説明する。
論文 参考訳(メタデータ) (2022-09-12T18:08:45Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - Out-of-distribution generalization for learning quantum dynamics [2.1503874224655997]
積状態のみを訓練した絡み合った状態に対するユニタリの作用を学習できることが示される。
これは、短期量子ハードウェア上で量子力学を学ぶことの展望を前進させる。
論文 参考訳(メタデータ) (2022-04-21T17:15:23Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。