論文の概要: Impact of Measurement Noise on Escaping Saddles in Variational Quantum Algorithms
- arxiv url: http://arxiv.org/abs/2406.09780v1
- Date: Fri, 14 Jun 2024 07:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 14:44:14.245957
- Title: Impact of Measurement Noise on Escaping Saddles in Variational Quantum Algorithms
- Title(参考訳): 変分量子アルゴリズムにおける逃避音の影響
- Authors: Eriko Kaminishi, Takashi Mori, Michihiko Sugawara, Naoki Yamamoto,
- Abstract要約: 測定ノイズがVQE最適化力学に与える影響について検討する。
ランドスケープにおける計測ノイズの増加に伴い,避難時間が減少することが判明した。
SDEによると、$eta/N_s$はショットノイズの分散として解釈される。
- 参考スコア(独自算出の注目度): 2.2328718581545526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic gradient descent (SGD) is a frequently used optimization technique in classical machine learning and Variational Quantum Eigensolver (VQE). For the implementation of VQE on quantum hardware, the results are always affected by measurement shot noise. However, there are many unknowns about the structure and properties of the measurement noise in VQE and how it contributes to the optimization. In this work, we analyze the effect of measurement noise to the optimization dynamics. Especially, we focus on escaping from saddle points in the loss landscape, which is crucial in the minimization of the non-convex loss function. We find that the escape time (1) decreases as the measurement noise increases in a power-law fashion and (2) is expressed as a function of $\eta/N_s$ where $\eta$ is the learning rate and $N_s$ is the number of measurements. The latter means that the escape time is approximately constant when we vary $\eta$ and $N_s$ with the ratio $\eta/N_s$ held fixed. This scaling behavior is well explained by the stochastic differential equation (SDE) that is obtained by the continuous-time approximation of the discrete-time SGD. According to the SDE, $\eta/N_s$ is interpreted as the variance of measurement shot noise. This result tells us that we can learn about the optimization dynamics in VQE from the analysis based on the continuous-time SDE, which is theoretically simpler than the original discrete-time SGD.
- Abstract(参考訳): 確率勾配降下(SGD)は古典的機械学習や変分量子固有解法(VQE)においてよく用いられる最適化手法である。
量子ハードウェア上でのVQEの実装は、常に測定ショットノイズの影響を受けます。
しかしながら、VQEにおける測定ノイズの構造と性質や、それが最適化にどのように貢献するかについては、多くの不明な点がある。
本研究では,計測ノイズが最適化力学に与える影響を解析する。
特に,非凸損失関数の最小化において重要な損失景観におけるサドル点からの脱出に着目した。
その結果,(1)測定ノイズの増加に伴って逃避時間が減少し,(2)は学習率$\eta/N_s$の関数として表され,(2)は測定回数$N_s$の関数として表されることがわかった。
後者は、固定された$\eta/N_s$の比率で$\eta$と$N_s$が異なる場合、エスケープ時間がほぼ一定であることを意味する。
このスケーリング挙動は、離散時間SGDの連続時間近似によって得られる確率微分方程式(SDE)によってよく説明される。
SDEによると、$\eta/N_s$は測定ショットノイズのばらつきとして解釈される。
この結果は,従来の離散時間SGDよりも理論的に単純な連続時間SDEに基づく解析から,VQEの最適化力学を学習できることを示唆する。
関連論文リスト
- Breaking the Heavy-Tailed Noise Barrier in Stochastic Optimization Problems [56.86067111855056]
構造密度の重み付き雑音によるクリップ最適化問題を考察する。
勾配が有限の順序モーメントを持つとき、$mathcalO(K-(alpha - 1)/alpha)$よりも高速な収束率が得られることを示す。
得られた推定値が無視可能なバイアスと制御可能な分散を持つことを示す。
論文 参考訳(メタデータ) (2023-11-07T17:39:17Z) - Generalization Bounds for Label Noise Stochastic Gradient Descent [0.0]
非測定条件でのラベルノイズを伴う勾配降下(SGD)の一般化誤差境界について検討する。
我々の分析はラベルノイズの影響についての洞察を与える。
論文 参考訳(メタデータ) (2023-11-01T03:51:46Z) - Doubly Stochastic Models: Learning with Unbiased Label Noises and
Inference Stability [85.1044381834036]
勾配降下のミニバッチサンプリング設定におけるラベル雑音の暗黙的正則化効果について検討した。
そのような暗黙的正則化器は、パラメータの摂動に対してモデル出力を安定化できる収束点を好んでいる。
我々の研究は、SGDをオルンシュタイン-ウレンベック類似の過程とはみなせず、近似の収束によってより一般的な結果を得る。
論文 参考訳(メタデータ) (2023-04-01T14:09:07Z) - Greedy versus Map-based Optimized Adaptive Algorithms for
random-telegraph-noise mitigation by spectator qubits [6.305016513788048]
データストレージキュービットを可能な限り分離したままにしておくシナリオでは、ノイズプローブを追加してノイズ軽減を行うことができる。
量子ビット上の射影的測定を仮定した理論モデルを構築し、異なる測定・制御戦略の性能を導出する。
解析的および数値的に、MOAAARは、特にSQの高雑音感度状態において、Greedyアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-25T08:25:10Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - Towards Noise-adaptive, Problem-adaptive Stochastic Gradient Descent [7.176107039687231]
雑音に対して勾配降下(SGD)を適応させるステップサイズスキームを設計する。
我々は、Nesterov反復によるSGDの$T$反復がほぼ最適であることを示す。
他のステップサイズスキームと比較して、新しい指数的なステップサイズスキームの有効性を実証する。
論文 参考訳(メタデータ) (2021-10-21T19:22:14Z) - Stochastic gradient descent with noise of machine learning type. Part
II: Continuous time analysis [0.0]
特定の雑音条件下では、最適化アルゴリズムは、同質雑音を伴う連続時間SGDの平坦な最小選択とは異なる意味で、目的関数の「平坦な」ミニマを好むことを示す。
論文 参考訳(メタデータ) (2021-06-04T16:34:32Z) - Direction Matters: On the Implicit Bias of Stochastic Gradient Descent
with Moderate Learning Rate [105.62979485062756]
本稿では,中等度学習におけるSGDの特定の正規化効果を特徴付けることを試みる。
SGDはデータ行列の大きな固有値方向に沿って収束し、GDは小さな固有値方向に沿って収束することを示す。
論文 参考訳(メタデータ) (2020-11-04T21:07:52Z) - Dynamic Regret of Convex and Smooth Functions [93.71361250701075]
非定常環境におけるオンライン凸最適化について検討する。
パフォーマンス指標として動的後悔を選択します。
本研究では, 滑らかさを活かして, 動的後悔をさらに高めることが可能であることを示す。
論文 参考訳(メタデータ) (2020-07-07T14:10:57Z) - Differentially Quantized Gradient Methods [53.3186247068836]
微分量子化グラディエントDescence (DQ-GD) が$maxsigma_mathrmGD, rhon 2-R$の線形収縮係数を得ることを示す。
あるクラス内のアルゴリズムは$maxsigma_mathrmGD, 2-R$よりも早く収束できない。
論文 参考訳(メタデータ) (2020-02-06T20:40:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。