論文の概要: Natural Gradient Optimization for Optical Quantum Circuits
- arxiv url: http://arxiv.org/abs/2106.13660v4
- Date: Tue, 26 Oct 2021 09:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 13:58:10.084969
- Title: Natural Gradient Optimization for Optical Quantum Circuits
- Title(参考訳): 光量子回路の自然勾配最適化
- Authors: Yuan Yao, Pierre Cussenot, Richard A. Wolf, and Filippo M. Miatto
- Abstract要約: 我々は、光量子回路設定において自然勾配降下を実装した。
特に、複素数値パラメータ空間に自然勾配アプローチを適用する。
NGアプローチがより高速な収束を持つのを観察する。
- 参考スコア(独自算出の注目度): 4.645254587634926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical quantum circuits can be optimized using gradient descent methods, as
the gates in a circuit can be parametrized by continuous parameters. However,
the parameter space as seen by the cost function is not Euclidean, which means
that the Euclidean gradient does not generally point in the direction of
steepest ascent. In order to retrieve the steepest ascent direction, in this
work we implement Natural Gradient descent in the optical quantum circuit
setting, which takes the local metric tensor into account. In particular, we
adapt the Natural Gradient approach to a complex-valued parameter space. We
then compare the Natural Gradient approach to vanilla gradient descent and to
Adam over two state preparation tasks: a single-photon source and a
Gottesman-Kitaev-Preskill state source. We observe that the NG approach has a
faster convergence (due in part to the possibility of using larger learning
rates) and a significantly smoother decay of the cost function throughout the
optimization.
- Abstract(参考訳): 光量子回路は勾配降下法を用いて最適化することができ、回路のゲートは連続パラメータでパラメータ化することができる。
しかし、コスト関数で見られるパラメータ空間はユークリッドではないので、ユークリッド勾配は一般に最も急な上昇の方向を指し示さない。
この研究では、最も急な上昇方向を求めるために、局所計量テンソルを考慮に入れた光量子回路設定に自然勾配降下を実装した。
特に、複素数値パラメータ空間に自然勾配アプローチを適用する。
次に、バニラ勾配降下に対するNatural Gradientアプローチと、単光子源とゴッテマン・キタエフ・プレスキル状態源の2つの状態準備タスクの比較を行う。
ngアプローチは(学習率を増大させる可能性によって)より高速に収束し、最適化を通じてコスト関数の減衰をかなりスムーズに行うことが観察された。
関連論文リスト
- Random coordinate descent: a simple alternative for optimizing parameterized quantum circuits [4.112419132722306]
本稿では、全勾配降下アルゴリズムに代わる実用的で実装が容易なランダム座標降下アルゴリズムを提案する。
本稿では,パラメータ化量子回路の実用最適化における計測ノイズの挙動から,解析可能な最適化問題を提案する。
論文 参考訳(メタデータ) (2023-10-31T18:55:45Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Parsimonious Optimisation of Parameters in Variational Quantum Circuits [1.303764728768944]
最適なパラメータを更新するために、1イテレーション毎に少なくとも2つの回路を実行する必要がある新しい量子勾配サンプリングを提案する。
提案手法は,古典的勾配降下に類似した収束率を達成し,勾配座標降下とSPSAを実証的に上回っている。
論文 参考訳(メタデータ) (2023-06-20T18:50:18Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Achieving High Accuracy with PINNs via Energy Natural Gradients [0.0]
エネルギー自然勾配から生じる関数空間の更新方向は、モデルの接空間への射影をニュートン方向変調する。
エネルギー自然勾配降下法は,標準勾配降下法あるいはアダム法を用いてPINNを訓練する際に得られるものよりも数桁小さい誤差で高精度な解が得られることを示した。
論文 参考訳(メタデータ) (2023-02-25T21:17:19Z) - Optimization using Parallel Gradient Evaluations on Multiple Parameters [51.64614793990665]
本稿では,複数のパラメータからの勾配を勾配降下の各ステップで利用することができる凸最適化の一階法を提案する。
本手法では,複数のパラメータからの勾配を用いて,これらのパラメータを最適方向に更新する。
論文 参考訳(メタデータ) (2023-02-06T23:39:13Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Natural Evolutionary Strategies for Variational Quantum Computation [0.7874708385247353]
自然進化戦略 (NES) は勾配のないブラックボックス最適化アルゴリズムの一群である。
本研究では、無作為化パラメトリゼーション量子回路(PQC)の減衰勾配領域における最適化への応用について述べる。
論文 参考訳(メタデータ) (2020-11-30T21:23:38Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - Large gradients via correlation in random parameterized quantum circuits [0.0]
コスト関数ランドスケープにおける指数関数的に消失する勾配の存在は、勾配降下法による最適化の障害となる。
パラメータ空間の次元性を減少させることで、消滅する勾配現象を回避できることを示す。
論文 参考訳(メタデータ) (2020-05-25T16:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。