論文の概要: Variational quantum simulation: a case study for understanding warm starts
- arxiv url: http://arxiv.org/abs/2404.10044v1
- Date: Mon, 15 Apr 2024 18:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 20:58:20.027105
- Title: Variational quantum simulation: a case study for understanding warm starts
- Title(参考訳): 変分量子シミュレーション : ウォームスタートを理解するためのケーススタディ
- Authors: Ricard Puig i Valls, Marc Drudis, Supanut Thanasilp, Zoë Holmes,
- Abstract要約: システムサイズで指数関数的に消滅する損失を特徴とするバレンプラトー現象は、変動量子アルゴリズムのスケーリングに挑戦する。
我々は、量子実時間と想像時間進化のための短い深度回路を学習するための反復的変分法に焦点をあてる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The barren plateau phenomenon, characterized by loss gradients that vanish exponentially with system size, poses a challenge to scaling variational quantum algorithms. Here we explore the potential of warm starts, whereby one initializes closer to a solution in the hope of enjoying larger loss variances. Focusing on an iterative variational method for learning shorter-depth circuits for quantum real and imaginary time evolution we conduct a case study to elucidate the potential and limitations of warm starts. We start by proving that the iterative variational algorithm will exhibit substantial (at worst vanishing polynomially in system size) gradients in a small region around the initializations at each time-step. Convexity guarantees for these regions are then established, suggesting trainability for polynomial size time-steps. However, our study highlights scenarios where a good minimum shifts outside the region with trainability guarantees. Our analysis leaves open the question whether such minima jumps necessitate optimization across barren plateau landscapes or whether there exist gradient flows, i.e., fertile valleys away from the plateau with substantial gradients, that allow for training.
- Abstract(参考訳): システムサイズで指数関数的に消失する損失勾配を特徴とするバレンプラトー現象は、変分量子アルゴリズムのスケーリングに挑戦する。
ここでは、温暖化開始の可能性を探求し、損失分散がより大きいことを期待して、解に近く初期化する。
量子実時間および想像時間進化のための短い深度回路を学習するための反復的変分法に着目して、ウォームスタートの可能性と限界を解明するためのケーススタディを行う。
まず、反復変分アルゴリズムは、各時点における初期化の周囲の小さな領域において、相当な(システムサイズで最悪の多項式的に消滅する)勾配を示すことを証明することから始める。
これらの領域の凸性保証が確立され、多項式サイズの時間ステップのトレーニング可能性が示唆される。
しかし,本研究では,トレーニング可能性の保証により,地域外における良好な最小限のシフトが保証されるシナリオを強調した。
我々の分析では、このようなミニマが不毛の高原の風景を横断する最適化を必要とするのか、あるいは、高原から離れた谷にかなりの勾配があるような勾配流が存在するのかという疑問が浮き彫りになっている。
関連論文リスト
- Training Dynamics of Multi-Head Softmax Attention for In-Context
Learning: Emergence, Convergence, and Optimality [59.2179429243182]
マルチタスク線形回帰の文脈内学習のためのマルチヘッドソフトマックスアテンションモデルを訓練するための勾配流のダイナミクスについて検討する。
我々は,勾配流のダイナミックス中に,興味深い「タスク割り当て」現象が現れることを証明した。
論文 参考訳(メタデータ) (2024-02-29T18:43:52Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - Avoiding barren plateaus via transferability of smooth solutions in
Hamiltonian Variational Ansatz [0.0]
変分量子アルゴリズム(VQA)は、現在の量子デバイス上で計算スピードアップを達成するための主要な候補である。
2つの大きなハードルは、低品質な局所最小値の増殖と、コスト関数のランドスケープにおける勾配の指数的な消失である。
ここでは、反復探索方式を用いることで、パラダイム的量子多体モデルの基底状態を効果的に作成できることを示す。
論文 参考訳(メタデータ) (2022-06-04T12:52:29Z) - BEINIT: Avoiding Barren Plateaus in Variational Quantum Algorithms [0.7462336024223667]
バレンプラトーは変分量子アルゴリズムの最適化において悪名高い問題である。
ベータ分布から引き出すことで、ユニタリゲートのパラメータを初期化する代替戦略を提案する。
提案手法は, 複雑な量子ニューラルネットワークがバレン高原で立ち往生する可能性を大幅に低減することを示す。
論文 参考訳(メタデータ) (2022-04-28T19:46:10Z) - Point Cloud Denoising via Momentum Ascent in Gradient Fields [72.93429911044903]
ニューラルネットワークを用いて雑音点雲から勾配場を推定する勾配法を提案した。
そこで我々は, 過去の反復情報を利用して, 点の軌道を決定する運動量勾配上昇法を開発した。
実験により, 提案手法は, 様々な点群, ノイズタイプ, 騒音レベルを有する最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-02-21T10:21:40Z) - Towards Efficient Ansatz Architecture for Variational Quantum Algorithms [12.728075253374062]
変分量子アルゴリズムは、雑音量子コンピュータにおける量子コンピューティングの利点を実証することが期待されている。
このような変分量子アルゴリズムの訓練は、アルゴリズムのサイズが大きくなるにつれて勾配が消えることに悩まされる。
雑音による勾配の消失を緩和する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T19:41:35Z) - Physical Gradients for Deep Learning [101.36788327318669]
最先端のトレーニング技術は、物理的なプロセスに関わる多くの問題に適していないことが分かりました。
本稿では,高次最適化手法と機械学習手法を組み合わせた新しいハイブリッドトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-30T12:14:31Z) - Quadratic Unconstrained Binary Optimisation via Quantum-Inspired
Annealing [58.720142291102135]
本稿では,2次非制約二項最適化の事例に対する近似解を求める古典的アルゴリズムを提案する。
我々は、チューニング可能な硬さと植え付けソリューションを備えた大規模問題インスタンスに対して、我々のアプローチをベンチマークする。
論文 参考訳(メタデータ) (2021-08-18T09:26:17Z) - Exploring entanglement and optimization within the Hamiltonian
Variational Ansatz [0.4881924950569191]
我々は、ハミルトン変分アンザッツ(HVA)と呼ばれる量子回路の族を研究する。
HVAは、穏やかまたは完全に欠落したバレン高原や制限された状態空間などの良好な構造特性を示す。
HVAは、環上の修正ハルデン・シャストリー・ハミルトニアンの基底状態に対する正確な近似を見つけることができる。
論文 参考訳(メタデータ) (2020-08-07T01:28:26Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。