論文の概要: Variational quantum simulation: a case study for understanding warm starts
- arxiv url: http://arxiv.org/abs/2404.10044v3
- Date: Tue, 18 Jun 2024 18:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 04:18:42.188437
- Title: Variational quantum simulation: a case study for understanding warm starts
- Title(参考訳): 変分量子シミュレーション : ウォームスタートを理解するためのケーススタディ
- Authors: Ricard Puig-i-Valls, Marc Drudis, Supanut Thanasilp, Zoë Holmes,
- Abstract要約: システムサイズで指数関数的に消滅する損失を特徴とするバレンプラトー現象は、変動量子アルゴリズムのスケーリングに挑戦する。
我々は、量子実時間と想像時間進化のための短い深度回路を学習するための反復的変分法に焦点をあてる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The barren plateau phenomenon, characterized by loss gradients that vanish exponentially with system size, poses a challenge to scaling variational quantum algorithms. Here we explore the potential of warm starts, whereby one initializes closer to a solution in the hope of enjoying larger loss variances. Focusing on an iterative variational method for learning shorter-depth circuits for quantum real and imaginary time evolution we conduct a case study to elucidate the potential and limitations of warm starts. We start by proving that the iterative variational algorithm will exhibit substantial (at worst vanishing polynomially in system size) gradients in a small region around the initializations at each time-step. Convexity guarantees for these regions are then established, suggesting trainability for polynomial size time-steps. However, our study highlights scenarios where a good minimum shifts outside the region with trainability guarantees. Our analysis leaves open the question whether such minima jumps necessitate optimization across barren plateau landscapes or whether there exist gradient flows, i.e., fertile valleys away from the plateau with substantial gradients, that allow for training.
- Abstract(参考訳): システムサイズで指数関数的に消失する損失勾配を特徴とするバレンプラトー現象は、変分量子アルゴリズムのスケーリングに挑戦する。
ここでは、温暖化開始の可能性を探求し、損失分散がより大きいことを期待して、解に近く初期化する。
量子実時間および想像時間進化のための短い深度回路を学習するための反復的変分法に着目して、ウォームスタートの可能性と限界を解明するためのケーススタディを行う。
まず、反復変分アルゴリズムは、各時点における初期化の周囲の小さな領域において、相当な(システムサイズで最悪の多項式的に消滅する)勾配を示すことを証明することから始める。
これらの領域の凸性保証が確立され、多項式サイズの時間ステップのトレーニング可能性が示唆される。
しかし,本研究では,トレーニング可能性の保証により,地域外における良好な最小限のシフトが保証されるシナリオを強調した。
我々の分析では、このようなミニマが不毛の高原の風景を横断する最適化を必要とするのか、あるいは、高原から離れた谷にかなりの勾配があるような勾配流が存在するのかという疑問が浮き彫りになっている。
関連論文リスト
- Improve Virational Quantum Eigensolver by Many-Body Localization [0.18416014644193066]
多体局所花束系は熱化を回避している。
本研究では,パラメータ更新のための勾配のばらつきについて検討した。
我々は'many-body Localization ansatz'と呼ばれる新しいタイプの変分アンザッツを設計した。
論文 参考訳(メタデータ) (2024-07-16T10:49:40Z) - Structure-inspired Ansatz and Warm Start of Variational Quantum Algorithms for Quadratic Unconstrained Binary Optimization Problems [0.18874331450711404]
本稿では、変分量子固有解器を用いて2次非制約二元最適化問題に対処する構造に着想を得たアンザッツを提案する。
本稿では,想像的時間進化に基づく新しいウォームスタート手法を提案する。
このウォームスタート法は成功率を著しく向上させ,変分量子固有解法の収束に必要なイテレーション数を削減できることを実証する。
論文 参考訳(メタデータ) (2024-07-02T18:00:05Z) - Training Dynamics of Multi-Head Softmax Attention for In-Context Learning: Emergence, Convergence, and Optimality [54.20763128054692]
マルチタスク線形回帰の文脈内学習のためのマルチヘッドソフトマックスアテンションモデルを訓練するための勾配流のダイナミクスについて検討する。
我々は,勾配流のダイナミックス中に,興味深い「タスク割り当て」現象が現れることを証明した。
論文 参考訳(メタデータ) (2024-02-29T18:43:52Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - Avoiding barren plateaus via transferability of smooth solutions in
Hamiltonian Variational Ansatz [0.0]
変分量子アルゴリズム(VQA)は、現在の量子デバイス上で計算スピードアップを達成するための主要な候補である。
2つの大きなハードルは、低品質な局所最小値の増殖と、コスト関数のランドスケープにおける勾配の指数的な消失である。
ここでは、反復探索方式を用いることで、パラダイム的量子多体モデルの基底状態を効果的に作成できることを示す。
論文 参考訳(メタデータ) (2022-06-04T12:52:29Z) - Point Cloud Denoising via Momentum Ascent in Gradient Fields [72.93429911044903]
ニューラルネットワークを用いて雑音点雲から勾配場を推定する勾配法を提案した。
そこで我々は, 過去の反復情報を利用して, 点の軌道を決定する運動量勾配上昇法を開発した。
実験により, 提案手法は, 様々な点群, ノイズタイプ, 騒音レベルを有する最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-02-21T10:21:40Z) - Physical Gradients for Deep Learning [101.36788327318669]
最先端のトレーニング技術は、物理的なプロセスに関わる多くの問題に適していないことが分かりました。
本稿では,高次最適化手法と機械学習手法を組み合わせた新しいハイブリッドトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-30T12:14:31Z) - Quadratic Unconstrained Binary Optimisation via Quantum-Inspired
Annealing [58.720142291102135]
本稿では,2次非制約二項最適化の事例に対する近似解を求める古典的アルゴリズムを提案する。
我々は、チューニング可能な硬さと植え付けソリューションを備えた大規模問題インスタンスに対して、我々のアプローチをベンチマークする。
論文 参考訳(メタデータ) (2021-08-18T09:26:17Z) - Exploring entanglement and optimization within the Hamiltonian
Variational Ansatz [0.4881924950569191]
我々は、ハミルトン変分アンザッツ(HVA)と呼ばれる量子回路の族を研究する。
HVAは、穏やかまたは完全に欠落したバレン高原や制限された状態空間などの良好な構造特性を示す。
HVAは、環上の修正ハルデン・シャストリー・ハミルトニアンの基底状態に対する正確な近似を見つけることができる。
論文 参考訳(メタデータ) (2020-08-07T01:28:26Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。