論文の概要: Generalization with quantum geometry for learning unitaries
- arxiv url: http://arxiv.org/abs/2303.13462v1
- Date: Thu, 23 Mar 2023 17:32:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 13:12:18.234414
- Title: Generalization with quantum geometry for learning unitaries
- Title(参考訳): 量子幾何学によるユニタリ学習の一般化
- Authors: Tobias Haug, M.S. Kim
- Abstract要約: 一般化とは、トレーニングデータから学習することで、新しいデータに対して正確な予測を行う量子機械学習モデルの能力である。
モデルが一般化できる時期を決定するために、DQFIM(Data Quantum Fisher Information Metrics)を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalization is the ability of quantum machine learning models to make
accurate predictions on new data by learning from training data. Here, we
introduce the data quantum Fisher information metric (DQFIM) to determine when
a model can generalize. For variational learning of unitaries, the DQFIM
quantifies the amount of circuit parameters and training data needed to
successfully train and generalize. We apply the DQFIM to explain when a
constant number of training states and polynomial number of parameters are
sufficient for generalization. Further, we can improve generalization by
removing symmetries from training data. Finally, we show that
out-of-distribution generalization, where training and testing data are drawn
from different data distributions, can be better than using the same
distribution. Our work opens up new approaches to improve generalization in
quantum machine learning.
- Abstract(参考訳): 一般化とは、量子機械学習モデルがトレーニングデータから学習することで、新しいデータを正確に予測する能力である。
本稿では,モデルが一般化できる時期を決定するために,dqfim(data quantum fisher information metric)を導入する。
ユニタリーの変分学習では、DQFIMは回路パラメータの量を定量化し、トレーニングと一般化に要するトレーニングデータを定量化する。
DQFIMを適用して、一定数のトレーニング状態とパラメータの多項式数が一般化に十分である場合を説明する。
さらに、トレーニングデータから対称性を取り除くことにより、一般化を改善できる。
最後に、異なるデータ分布からトレーニングデータとテストデータを描画する分布外一般化が、同じ分布を使用するよりも優れていることを示す。
我々の研究は、量子機械学習の一般化を改善するための新しいアプローチを開く。
関連論文リスト
- Anonymous Learning via Look-Alike Clustering: A Precise Analysis of
Model Generalization [18.03833857491361]
プライバシーを強化するための一般的なアプローチは、個々のデータではなく匿名データを使用してモデルをトレーニングすることである。
匿名クラスタセンターを用いたトレーニングモデルが一般化能力に与える影響について分析する。
ある種の高次元状態において、匿名クラスタセンターでのトレーニングは正規化として機能し、訓練されたモデルの一般化誤差を改善する。
論文 参考訳(メタデータ) (2023-10-06T04:52:46Z) - Universal Metric Learning with Parameter-Efficient Transfer Learning [40.85295050164728]
メトリック学習における一般的なプラクティスは、データセット毎に埋め込みモデルをトレーニングし、テストすることである。
このデータセット固有のアプローチは、複数の異種データの分散を含む実世界のシナリオをシミュレートすることができない。
本稿では,複数のデータ分布にまたがる関係を捉えることのできる統一されたメトリックを学習するUniversal Metric Learning(UML)という,新しいメトリック学習パラダイムを導入する。
論文 参考訳(メタデータ) (2023-09-16T10:34:01Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Do Quantum Circuit Born Machines Generalize? [58.720142291102135]
本稿では,量子生成モデルの積分評価指標としてQCBMの一般化性能を示す文献で最初に紹介する。
そこで本研究では,QCBMがデータセットの再重み付けを効果的に学習し,未確認のサンプルをトレーニングセットよりも高い品質で生成可能であることを示す。
論文 参考訳(メタデータ) (2022-07-27T17:06:34Z) - Out-of-distribution generalization for learning quantum dynamics [2.1503874224655997]
積状態のみを訓練した絡み合った状態に対するユニタリの作用を学習できることが示される。
これは、短期量子ハードウェア上で量子力学を学ぶことの展望を前進させる。
論文 参考訳(メタデータ) (2022-04-21T17:15:23Z) - Evaluating natural language processing models with generalization
metrics that do not need access to any training or testing data [66.11139091362078]
本稿では,Hugingface から事前学習した大規模トランスフォーマーに対して,一般化指標を用いた最初のモデル選択結果を提案する。
ニッチな状況にもかかわらず、ヘビーテール(HT)の観点から派生したメトリクスは、特にNLPタスクにおいて有用である。
論文 参考訳(メタデータ) (2022-02-06T20:07:35Z) - Generalization in quantum machine learning from few training data [4.325561431427748]
現代の量子機械学習(QML)手法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化する。
トレーニング可能なゲートを最低で$sqrtT/N$とする量子機械学習モデルの一般化誤差を示す。
また、量子畳み込みニューラルネットワークによる相転移における量子状態の分類には、非常に小さなトレーニングデータセットが必要であることも示している。
論文 参考訳(メタデータ) (2021-11-09T17:49:46Z) - Out-of-Distribution Generalization in Kernel Regression [21.958028127426196]
トレーニングとテストの分布が異なる場合のカーネル回帰の一般化について検討する。
与えられたカーネルの分布間のミスマッチを定量化する重なり行列を同定する。
本研究では,データ予算に対するトレーニングとテストの配分を最適化する手法を開発し,そのシフトの下で最良のケースと最悪のケースの一般化を求める。
論文 参考訳(メタデータ) (2021-06-04T04:54:25Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Whitening and second order optimization both make information in the
dataset unusable during training, and can reduce or prevent generalization [50.53690793828442]
データの白化と二階最適化の両方が、一般化を損なうか、完全に阻止できることを示す。
一般モデルのクラス、すなわち、完全に連結された第一層を持つモデルに対して、この行列に含まれる情報が一般化に使用できる唯一の情報であることを示す。
論文 参考訳(メタデータ) (2020-08-17T18:00:05Z) - Unshuffling Data for Improved Generalization [65.57124325257409]
トレーニングディストリビューションを越えた一般化は、マシンラーニングにおける中核的な課題である。
本研究では,複数の学習環境として扱われる非d.d.サブセットにデータを分割することで,アウト・オブ・ディストリビューションの一般化を向上したモデル学習を導出できることを示す。
論文 参考訳(メタデータ) (2020-02-27T03:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。