論文の概要: Noise can be helpful for variational quantum algorithms
- arxiv url: http://arxiv.org/abs/2210.06723v1
- Date: Thu, 13 Oct 2022 04:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:37:02.180196
- Title: Noise can be helpful for variational quantum algorithms
- Title(参考訳): 雑音は変分量子アルゴリズムに有用である
- Authors: Junyu Liu, Frederik Wilde, Antonio Anna Mele, Liang Jiang, Jens Eisert
- Abstract要約: サドル点は一階勾配勾配アルゴリズムにとって重要な課題である。
本研究では,サドル点問題を変分アルゴリズムで自然に回避できることを示す。
変動アルゴリズムの自然性は、厳密なサドル点を避けるのに有用である。
- 参考スコア(独自算出の注目度): 8.8226732803857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Saddle points constitute a crucial challenge for first-order gradient descent
algorithms. In notions of classical machine learning, they are avoided for
example by means of stochastic gradient descent methods. In this work, we
provide evidence that the saddle points problem can be naturally avoided in
variational quantum algorithms by exploiting the presence of stochasticity. We
prove convergence guarantees of the approach and its practical functioning at
hand of examples. We argue that the natural stochasticity of variational
algorithms can be beneficial for avoiding strict saddle points, i.e., those
saddle points with at least one negative Hessian eigenvalue. This insight that
some noise levels could help in this perspective is expected to add a new
perspective to notions of near-term variational quantum algorithms.
- Abstract(参考訳): サドルポイントは一階勾配降下アルゴリズムにとって重要な課題である。
古典的な機械学習の概念では、例えば確率勾配降下法によってこれらは避けられる。
本研究では,確率性の存在を利用して,変動量子アルゴリズムにおいてサドル点問題を自然に回避できることを示す。
提案手法の収束保証と実例による実用的機能を証明する。
変分アルゴリズムの自然な確率性は、厳密な鞍点、すなわち少なくとも一つの負のヘッセン固有値を持つ鞍点を避けるのに有用であると主張する。
この観点でいくつかのノイズレベルが役立つというこの洞察は、短期変動量子アルゴリズムの概念に新たな視点を加えることが期待されている。
関連論文リスト
- A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - Denoising Gradient Descent in Variational Quantum Algorithms [0.0]
本稿では,変分量子アルゴリズムの勾配降下に対する雑音の悪影響を緩和するアルゴリズムを提案する。
ランダム化パラメタライズド量子回路におけるアルゴリズムの利点を実証的に示す。
論文 参考訳(メタデータ) (2024-03-06T16:15:25Z) - Riemannian stochastic optimization methods avoid strict saddle points [68.80251170757647]
研究中のポリシーは、確率 1 の厳密なサドル点/部分多様体を避けていることを示す。
この結果は、アルゴリズムの極限状態が局所最小値にしかならないことを示すため、重要な正当性チェックを提供する。
論文 参考訳(メタデータ) (2023-11-04T11:12:24Z) - Quantum speedups for stochastic optimization [18.32349609443295]
オラクルに対する量子振動の連続関数を最小化する問題を考察する。
リプシュ・アヴィッツ関数を最小化するための2つの新しい方法を提案する。
論文 参考訳(メタデータ) (2023-08-03T07:39:10Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - Towards Efficient Ansatz Architecture for Variational Quantum Algorithms [12.728075253374062]
変分量子アルゴリズムは、雑音量子コンピュータにおける量子コンピューティングの利点を実証することが期待されている。
このような変分量子アルゴリズムの訓練は、アルゴリズムのサイズが大きくなるにつれて勾配が消えることに悩まされる。
雑音による勾配の消失を緩和する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T19:41:35Z) - Mitigating Noise-Induced Gradient Vanishing in Variational Quantum
Algorithm Training [14.343891429004639]
変分量子アルゴリズムは、雑音量子コンピュータにおける量子コンピューティングの利点を実証することが期待されている。
このような変分量子アルゴリズムの訓練は、アルゴリズムのサイズが大きくなるにつれて勾配が消えることに悩まされる。
雑音による勾配の消失を緩和する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T18:28:34Z) - Quantum algorithms for quantum dynamics: A performance study on the
spin-boson model [68.8204255655161]
量子力学シミュレーションのための量子アルゴリズムは、伝統的に時間進化作用素のトロッター近似の実装に基づいている。
変分量子アルゴリズムは欠かせない代替手段となり、現在のハードウェア上での小規模なシミュレーションを可能にしている。
量子ゲートコストが明らかに削減されているにもかかわらず、現在の実装における変分法は量子的優位性をもたらすことはありそうにない。
論文 参考訳(メタデータ) (2021-08-09T18:00:05Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Stochastic optimization with momentum: convergence, fluctuations, and
traps avoidance [0.0]
本稿では,重球法,ネステロフ加速勾配法(S-NAG),広く使用されているアダム法など,勾配勾配勾配のいくつかの変種を統一する一般最適化手法について検討する。
この回避は、非自明な常微分方程式のノイズ離散化として研究される。
論文 参考訳(メタデータ) (2020-12-07T19:14:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。