論文の概要: Identifying overparameterization in Quantum Circuit Born Machines
- arxiv url: http://arxiv.org/abs/2307.03292v2
- Date: Mon, 10 Jul 2023 11:38:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 10:12:17.963778
- Title: Identifying overparameterization in Quantum Circuit Born Machines
- Title(参考訳): 量子回路ボルニングマシンにおける過パラメータ化の同定
- Authors: Andrea Delgado, Francisco Rios, Kathleen E. Hamilton
- Abstract要約: 量子回路Bornマシンのオーバーパラメータ化遷移の開始について,非逆勾配法を用いて学習した生成モデルについて検討する。
我々の結果は、これらのモデルのトレーニング可能性を完全に理解することは、未解決の問題であることを示している。
- 参考スコア(独自算出の注目度): 1.7259898169307613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In machine learning, overparameterization is associated with qualitative
changes in the empirical risk landscape, which can lead to more efficient
training dynamics. For many parameterized models used in statistical learning,
there exists a critical number of parameters, or model size, above which the
model is constructed and trained in the overparameterized regime. There are
many characteristics of overparameterized loss landscapes. The most significant
is the convergence of standard gradient descent to global or local minima of
low loss. In this work, we study the onset of overparameterization transitions
for quantum circuit Born machines, generative models that are trained using
non-adversarial gradient-based methods. We observe that bounds based on
numerical analysis are in general good lower bounds on the overparameterization
transition. However, bounds based on the quantum circuit's algebraic structure
are very loose upper bounds. Our results indicate that fully understanding the
trainability of these models remains an open question.
- Abstract(参考訳): 機械学習では、過剰パラメータ化は経験的リスク環境の質的変化と関連しており、より効率的なトレーニングダイナミクスにつながる可能性がある。
統計学習で用いられる多くのパラメータ化モデルでは、モデルが構築され、過剰パラメータ化環境下で訓練される、臨界数のパラメータ(またはモデルサイズ)が存在する。
過パラメータ化ロスランドスケープには多くの特徴がある。
最も重要な点は、低損失のグローバルまたはローカルミニマへの標準勾配降下の収束である。
本研究では,非逆勾配法を用いて学習した生成モデルであるBornマシンの過パラメータ化遷移の開始について検討する。
数値解析に基づく境界は, 一般に, オーバーパラメータ化遷移において良好な下限である。
しかし、量子回路の代数的構造に基づく境界は非常にゆるい上界である。
以上の結果から,これらのモデルのトレーサビリティを完全に理解することは,まだ未解決の課題であることが示唆された。
関連論文リスト
- Parameter Estimation in Quantum Metrology Technique for Time Series Prediction [0.0]
本稿では,気象予測における量子計算の手法について検討する。
変動パラメータ推定による予測ポテンシャルの向上に焦点を当てる。
パラメータ分布と学習速度が予測精度に与える影響について検討した。
論文 参考訳(メタデータ) (2024-06-12T05:55:45Z) - Neural network analysis of neutron and X-ray reflectivity data:
Incorporating prior knowledge for tackling the phase problem [141.5628276096321]
本稿では,事前知識を利用して,より大規模なパラメータ空間上でのトレーニングプロセスを標準化する手法を提案する。
ボックスモデルパラメータ化を用いた多層構造を含む様々なシナリオにおいて,本手法の有効性を示す。
従来の手法とは対照的に,逆問題の複雑性を増大させると,我々の手法は好適にスケールする。
論文 参考訳(メタデータ) (2023-06-28T11:15:53Z) - Backpropagation scaling in parameterised quantum circuits [0.0]
我々は、古典的にシミュレート可能でない回路を導入し、回路数を大幅に減らして勾配推定を許容する。
具体的には、これらの回路は勾配、高次偏微分、フィッシャー情報行列の高速な推定を可能にする。
16量子ビットの玩具分類問題では、これらの回路は他の手法と競合する性能を示し、トレーニングコストを約2桁削減する。
論文 参考訳(メタデータ) (2023-06-26T18:00:09Z) - Trainability Enhancement of Parameterized Quantum Circuits via Reduced-Domain Parameter Initialization [3.031137751464259]
回路深さの平方根に比例する各パラメータの初期領域を減少させることで、コスト勾配の最大値は、キュービット数と回路深さにほぼ逆向きに減衰することを示す。
この戦略は、特定の量子ニューラルネットワークを指数関数的に多くの局所的なミニマから保護することができる。
論文 参考訳(メタデータ) (2023-02-14T06:41:37Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Quantum Lazy Training [2.492300648514128]
幾何学的に局所的にパラメータ化された量子回路のトレーニングは、多数の量子ビットに対して遅延状態に入ることを示す。
より正確には、トレーニングプロセスにおいて、そのような幾何学的局所的なパラメータ化量子回路のパラメータの変化率の有界性を示す。
論文 参考訳(メタデータ) (2022-02-16T18:24:37Z) - Mode connectivity in the loss landscape of parameterized quantum
circuits [1.7546369508217283]
パラメータ化量子回路(PQC)の変分訓練は、近時雑音型中間スケール量子(NISQ)デバイスに多く採用されている。
PQCトレーニングにおける損失ランドスケープの特徴を研究するために、引用したraxler 2018essentiallyで使用されるコネクティビティの視覚化とテストを行うために、citegoodfellowqualitatively,li 2017で導入されたニューラルネットワークの定性的な損失ランドスケープのキャラクタリゼーションを適用した。
論文 参考訳(メタデータ) (2021-11-09T18:28:46Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z) - On the Sparsity of Neural Machine Translation Models [65.49762428553345]
性能向上のために冗長パラメータを再利用できるかどうかを検討する。
実験と分析は異なるデータセットとNTTアーキテクチャで体系的に行われる。
論文 参考訳(メタデータ) (2020-10-06T11:47:20Z) - Characterizing the loss landscape of variational quantum circuits [77.34726150561087]
本稿では,VQCの損失関数のヘシアンを計算する方法を紹介する。
この情報がどのように解釈され、従来のニューラルネットワークと比較されるかを示す。
論文 参考訳(メタデータ) (2020-08-06T17:48:12Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。