論文の概要: On Reducing the Amount of Samples Required for Training of QNNs:
Constraints on the Linear Structure of the Training Data
- arxiv url: http://arxiv.org/abs/2309.13711v1
- Date: Sun, 24 Sep 2023 18:02:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 18:04:39.679186
- Title: On Reducing the Amount of Samples Required for Training of QNNs:
Constraints on the Linear Structure of the Training Data
- Title(参考訳): QNNのトレーニングに必要なサンプル量の削減について:トレーニングデータの線形構造に関する制約
- Authors: Alexander Mandl, Johanna Barzen, Frank Leymann, Daniel Vietz
- Abstract要約: 絡み合ったトレーニングサンプルを使用することで、量子ニューラルネットワーク(QNN)はトレーニングプロセスに必要なトレーニングサンプルの量を著しく削減する可能性がある。
トレーニングサンプルの集合における絡み合いの平均度は,QNNの期待品質を予測するのに有効であることを示す。
- 参考スコア(独自算出の注目度): 42.16665455951525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training classical neural networks generally requires a large number of
training samples. Using entangled training samples, Quantum Neural Networks
(QNNs) have the potential to significantly reduce the amount of training
samples required in the training process. However, to minimize the number of
incorrect predictions made by the resulting QNN, it is essential that the
structure of the training samples meets certain requirements. On the one hand,
the exact degree of entanglement must be fixed for the whole set of training
samples. On the other hand, training samples must be linearly independent and
non-orthogonal. However, how failing to meet these requirements affects the
resulting QNN is not fully studied. To address this, we extend the proof of the
QNFL theorem to (i) provide a generalization of the theorem for varying degrees
of entanglement. This generalization shows that the average degree of
entanglement in the set of training samples can be used to predict the expected
quality of the QNN. Furthermore, we (ii) introduce new estimates for the
expected accuracy of QNNs for moderately entangled training samples that are
linear dependent or orthogonal. Our analytical results are (iii) experimentally
validated by simulating QNN training and analyzing the quality of the QNN after
training.
- Abstract(参考訳): 古典的ニューラルネットワークのトレーニングは通常、多数のトレーニングサンプルを必要とする。
絡み合ったトレーニングサンプルを使用することで、量子ニューラルネットワーク(QNN)はトレーニングプロセスに必要なトレーニングサンプルの量を著しく削減する可能性がある。
しかし、結果のQNNによる誤った予測数を最小化するためには、トレーニングサンプルの構造が一定の要件を満たすことが不可欠である。
一方、トレーニングサンプルのセット全体に対して、正確な絡み合いの程度が固定されなければならない。
一方、トレーニングサンプルは線形独立かつ非直交でなければならない。
しかし、これらの要件を満たさないことがQNNの結果に与える影響は、十分に研究されていない。
これを解決するため、QNFL定理の証明を拡張した。
(i)絡み合いの程度の違いに対する定理の一般化を提供する。
この一般化は、トレーニングサンプルのセットにおける絡み合いの平均度を用いて、QNNの期待品質を予測できることを示している。
さらに私たちは
(II) 線形依存型, 直交型である適度に絡み合ったトレーニングサンプルに対するQNNの予測精度の新しい推定値を導入する。
私たちの分析結果は
3)QNN訓練を模擬し,訓練後のQNNの質を分析して実験的に検証した。
関連論文リスト
- Training Guarantees of Neural Network Classification Two-Sample Tests by Kernel Analysis [58.435336033383145]
2つのデータセットが同じ分布から来たかどうかを判断するために、ニューラルネットワークの2サンプルテストを構築し、分析する。
NTK2サンプルテストがデータセット間の偏差レベルを検出するのに必要となる、理論的に最小限のトレーニング時間を導出する。
ニューラルネットワークのトレーニングサンプルとテスト評価サンプルが無限に近づくにつれて、ニューラルネットワークの2サンプルテストに関連する統計的パワーは1になる。
論文 参考訳(メタデータ) (2024-07-05T18:41:16Z) - Quantum Active Learning [3.3202982522589934]
量子ニューラルネットワークのトレーニングは通常、教師付き学習のための実質的なラベル付きトレーニングセットを必要とする。
QALはモデルを効果的にトレーニングし、完全にラベル付けされたデータセットに匹敵するパフォーマンスを達成する。
我々は,QALがランダムサンプリングベースラインに乗じて負の結果を微妙な数値実験により解明する。
論文 参考訳(メタデータ) (2024-05-28T14:39:54Z) - Theoretical Conditions and Empirical Failure of Bracket Counting on Long
Sequences with Linear Recurrent Networks [11.754328280233628]
線形単一セルネットワークであるRNNについて検討する。
モデルが正確なカウント動作を示す条件を特定する。
線形RNNは、通常、標準手法で訓練された場合の振る舞いをカウントするのに必要かつ十分な条件を満たさないことが観察された。
論文 参考訳(メタデータ) (2023-04-07T13:42:17Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Training ReLU networks to high uniform accuracy is intractable [7.723983475351976]
与えられた一様精度を保証するために,任意の学習アルゴリズムに必要なトレーニングサンプル数を定量化する。
我々は、ReLUニューラルネットワークを高精度にトレーニングすることは難解であると結論付けた。
論文 参考訳(メタデータ) (2022-05-26T17:50:55Z) - Toward Physically Realizable Quantum Neural Networks [15.018259942339446]
量子ニューラルネットワーク(QNN)の現在のソリューションは、スケーラビリティに関する課題を提起している。
QNNの指数的状態空間は、トレーニング手順のスケーラビリティに課題をもたらす。
本稿では量子パーセプトロンの転送関数の帯域制限フーリエ展開に依存するQNNの新しいモデルを提案する。
論文 参考訳(メタデータ) (2022-03-22T23:03:32Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Statistical model-based evaluation of neural networks [74.10854783437351]
ニューラルネットワーク(NN)の評価のための実験装置を開発する。
このセットアップは、NNs vis-a-vis minimum-mean-square-error (MMSE)パフォーマンス境界のベンチマークに役立つ。
これにより、トレーニングデータサイズ、データ次元、データ幾何学、ノイズ、トレーニング条件とテスト条件のミスマッチの影響をテストできます。
論文 参考訳(メタデータ) (2020-11-18T00:33:24Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Multi-Sample Online Learning for Probabilistic Spiking Neural Networks [43.8805663900608]
スパイキングニューラルネットワーク(SNN)は、推論と学習のための生物学的脳の効率の一部をキャプチャする。
本稿では,一般化予測最大化(GEM)に基づくオンライン学習ルールを提案する。
標準ニューロモルフィックデータセットにおける構造化された出力記憶と分類実験の結果,ログの類似性,精度,キャリブレーションの点で大きな改善が見られた。
論文 参考訳(メタデータ) (2020-07-23T10:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。