論文の概要: Avoiding Barren Plateaus with Classical Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2205.13418v1
- Date: Thu, 26 May 2022 15:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 13:56:47.683968
- Title: Avoiding Barren Plateaus with Classical Deep Neural Networks
- Title(参考訳): 古典的ディープニューラルネットワークによる不毛高原の回避
- Authors: Lucas Friedrich and Jonas Maziero
- Abstract要約: VQA(Vari quantum algorithm)は、ノイズ中間スケール量子デバイス時代において最も有望なアルゴリズムの一つである。
VQAは、化学シミュレーション、最適化問題、量子ニューラルネットワークなど、様々なタスクに適用される。
本稿では,VQA入力パラメータにおける古典的ニューラルネットワークの利用がバレンプラトー現象を緩和する方法について報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational quantum algorithms (VQAs) are among the most promising algorithms
in the era of Noisy Intermediate Scale Quantum Devices. The VQAs are applied to
a variety of tasks, such as in chemistry simulations, optimization problems,
and quantum neural networks. Such algorithms are constructed using a
parameterization U($\pmb{\theta}$) with a classical optimizer that updates the
parameters $\pmb{\theta}$ in order to minimize a cost function $C$. For this
task, in general the gradient descent method, or one of its variants, is used.
This is a method where the circuit parameters are updated iteratively using the
cost function gradient. However, several works in the literature have shown
that this method suffers from a phenomenon known as the Barren Plateaus (BP).
This phenomenon is characterized by the exponentially flattening of the cost
function landscape, so that the number of times the function must be evaluated
to perform the optimization grows exponentially as the number of qubits and
parameterization depth increase. In this article, we report on how the use of a
classical neural networks in the VQAs input parameters can alleviate the BP
phenomenon.
- Abstract(参考訳): 変分量子アルゴリズム(VQA)は、ノイズ中間スケール量子デバイスの時代で最も有望なアルゴリズムの一つである。
VQAは、化学シミュレーション、最適化問題、量子ニューラルネットワークなど、様々なタスクに適用される。
このようなアルゴリズムはパラメータ化U($\pmb{\theta}$)を使用して構築され、コスト関数$C$を最小化するためにパラメータを更新する古典的なオプティマイザを持つ。
このタスクでは、一般に勾配降下法(またはその変種の一つ)が用いられる。
これは、コスト関数勾配を用いて回路パラメータを反復的に更新する手法である。
しかし、この手法はバレン高原(BP)と呼ばれる現象に苦しむことが文献で示されている。
この現象は、コスト関数ランドスケープの指数的に平坦化によって特徴づけられるため、最適化を行うために関数の回数は、量子ビットの数とパラメータ化深さが増加するにつれて指数的に増加する。
本稿では,VQAs入力パラメータにおける古典的ニューラルネットワークの使用がBP現象を緩和する方法について報告する。
関連論文リスト
- Trainability Barriers in Low-Depth QAOA Landscapes [0.0]
QAOA(Quantum Alternating Operator Ansatz)は最適化問題を解くための変分量子アルゴリズムである。
以前の結果から、小さなパラメータの固定数の解析性能が保証された。
本研究は,近年の数値研究の焦点である中間体制における訓練の難しさについて考察する。
論文 参考訳(メタデータ) (2024-02-15T18:45:30Z) - Parsimonious Optimisation of Parameters in Variational Quantum Circuits [1.303764728768944]
最適なパラメータを更新するために、1イテレーション毎に少なくとも2つの回路を実行する必要がある新しい量子勾配サンプリングを提案する。
提案手法は,古典的勾配降下に類似した収束率を達成し,勾配座標降下とSPSAを実証的に上回っている。
論文 参考訳(メタデータ) (2023-06-20T18:50:18Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Natural evolutionary strategies applied to quantum-classical hybrid
neural networks [0.0]
ブラックボックス最適化アルゴリズムのファミリであるNatural Evolutionary Strategies(NES)について検討する。
本手法が量子ニューラルネットワークのトレーニングに有効な代替手段であることを示すため,二元分類タスクにNES法を適用した。
論文 参考訳(メタデータ) (2022-05-17T02:14:44Z) - LAWS: Look Around and Warm-Start Natural Gradient Descent for Quantum
Neural Networks [11.844238544360149]
Vari Quantum Algorithm (VQA) は、ノイズ中間スケール量子コンピュータ (NISQ) における有望な性能のために最近注目されている。
パラメータ化量子回路(PQC)上でランダムなパラメータを持つVQAは、勾配が量子ビット数で指数関数的に消えるバレンプラトー(BP)によって特徴づけられる。
本稿では、古典的な1次最適化点から、VQAでよく使われるアルゴリズムの1つである量子自然勾配(QNG)について述べる。
そして、私たちはアンダーラインAroundアンダーラインを提案しました。
論文 参考訳(メタデータ) (2022-05-05T14:16:40Z) - Twisted hybrid algorithms for combinatorial optimization [68.8204255655161]
提案されたハイブリッドアルゴリズムは、コスト関数をハミルトニアン問題にエンコードし、回路の複雑さの低い一連の状態によってエネルギーを最適化する。
レベル$p=2,ldots, 6$の場合、予想される近似比をほぼ維持しながら、レベル$p$を1に減らすことができる。
論文 参考訳(メタデータ) (2022-03-01T19:47:16Z) - Quantum algorithms for approximate function loading [0.0]
我々は,Grover-RudolphアルゴリズムにインスパイアされたNISQ時代の量子状態生成法を2つ導入した。
上述の滑らかさ条件を超えて関数をロードできる変分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-15T17:36:13Z) - STORM+: Fully Adaptive SGD with Momentum for Nonconvex Optimization [74.1615979057429]
本研究では,スムーズな損失関数に対する期待値である非バッチ最適化問題について検討する。
我々の研究は、学習率と運動量パラメータを適応的に設定する新しいアプローチとともに、STORMアルゴリズムの上に構築されている。
論文 参考訳(メタデータ) (2021-11-01T15:43:36Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。