論文の概要: Effect of barren plateaus on gradient-free optimization
- arxiv url: http://arxiv.org/abs/2011.12245v2
- Date: Thu, 30 Sep 2021 23:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 12:52:53.510311
- Title: Effect of barren plateaus on gradient-free optimization
- Title(参考訳): 勾配なし最適化におけるバレン高原の影響
- Authors: Andrew Arrasmith, M. Cerezo, Piotr Czarnik, Lukasz Cincio, Patrick J.
Coles
- Abstract要約: ヴァレン高原の風景は、キュービットの数で指数関数的に消える。
このような風景は、変分量子アルゴリズムや、ディープ回路またはグローバルコスト関数を持つ量子ニューラルネットワークに対して実証されている。
- 参考スコア(独自算出の注目度): 0.755972004983746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Barren plateau landscapes correspond to gradients that vanish exponentially
in the number of qubits. Such landscapes have been demonstrated for variational
quantum algorithms and quantum neural networks with either deep circuits or
global cost functions. For obvious reasons, it is expected that gradient-based
optimizers will be significantly affected by barren plateaus. However, whether
or not gradient-free optimizers are impacted is a topic of debate, with some
arguing that gradient-free approaches are unaffected by barren plateaus. Here
we show that, indeed, gradient-free optimizers do not solve the barren plateau
problem. Our main result proves that cost function differences, which are the
basis for making decisions in a gradient-free optimization, are exponentially
suppressed in a barren plateau. Hence, without exponential precision,
gradient-free optimizers will not make progress in the optimization. We
numerically confirm this by training in a barren plateau with several
gradient-free optimizers (Nelder-Mead, Powell, and COBYLA algorithms), and show
that the numbers of shots required in the optimization grows exponentially with
the number of qubits.
- Abstract(参考訳): バレン高原の景観は、キュービット数で指数関数的に消滅する勾配に対応する。
このような風景は、変分量子アルゴリズムやディープ回路またはグローバルコスト関数を持つ量子ニューラルネットワークに対して実証されている。
明らかな理由から,勾配に基づくオプティマイザは不毛の台地の影響を大きく受けることが期待される。
しかし、勾配フリーオプティマイザが影響を受けるかどうかは議論の対象であり、勾配フリーアプローチは不毛高原に影響されないと主張する者もいる。
ここでは,グラデーションフリー・オプティマイザが不毛高原問題を解かないことを示す。
その結果,不毛高原では,勾配のない最適化で決定を下すための基礎となるコスト関数の違いが指数関数的に抑制されることがわかった。
したがって、指数的精度がなければ、勾配のない最適化器は最適化に進歩しない。
グラデーションフリーオプティマイザ(nelder-mead, powell, cobylaアルゴリズム)を用いた不毛高原でのトレーニングにより,最適化に必要なショット数が量子ビット数で指数関数的に増加することを数値的に確認した。
関連論文リスト
- Gradient-free neural topology optimization [0.0]
勾配のないアルゴリズムは勾配に基づくアルゴリズムと比較して多くの繰り返しを収束させる必要がある。
これにより、反復1回あたりの計算コストとこれらの問題の高次元性のため、トポロジ最適化では実現不可能となった。
我々は,潜時空間における設計を最適化する場合に,少なくとも1桁の繰り返し回数の減少につながる事前学習型ニューラルリパラメータ化戦略を提案する。
論文 参考訳(メタデータ) (2024-03-07T23:00:49Z) - How to guess a gradient [68.98681202222664]
我々は、勾配が以前考えられていたよりもより構造化されていることを示す。
この構造をエクスプロイトすると、勾配のない最適化スキームが大幅に改善される。
厳密な勾配の最適化と勾配の推測の間に大きなギャップを克服する上での新たな課題を強調した。
論文 参考訳(メタデータ) (2023-12-07T21:40:44Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Optimization using Parallel Gradient Evaluations on Multiple Parameters [51.64614793990665]
本稿では,複数のパラメータからの勾配を勾配降下の各ステップで利用することができる凸最適化の一階法を提案する。
本手法では,複数のパラメータからの勾配を用いて,これらのパラメータを最適方向に更新する。
論文 参考訳(メタデータ) (2023-02-06T23:39:13Z) - Plateau-reduced Differentiable Path Tracing [18.174063717952187]
対象関数において、逆レンダリングは、固有な高原、すなわちゼロ勾配の領域によって収束しないことが示される。
パラメータ空間を曖昧にする余分なカーネルを持つ画像にパラメータをマッピングする高次元レンダリング関数を展開させることにより、この問題を軽減することを提案する。
論文 参考訳(メタデータ) (2022-11-30T18:58:53Z) - BEINIT: Avoiding Barren Plateaus in Variational Quantum Algorithms [0.7462336024223667]
バレンプラトーは変分量子アルゴリズムの最適化において悪名高い問題である。
ベータ分布から引き出すことで、ユニタリゲートのパラメータを初期化する代替戦略を提案する。
提案手法は, 複雑な量子ニューラルネットワークがバレン高原で立ち往生する可能性を大幅に低減することを示す。
論文 参考訳(メタデータ) (2022-04-28T19:46:10Z) - Avoiding barren plateaus using classical shadows [1.5749416770494702]
変分量子アルゴリズムは、短期デバイス上で量子優位を達成するための有望なアルゴリズムである。
表現的変分 ans" の最適化の展望は、バレンプラトーとして知られるパラメータ空間の広い領域に支配されている。
論文 参考訳(メタデータ) (2022-01-20T14:19:36Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。