論文の概要: L2O-$g^{\dagger}$: Learning to Optimize Parameterized Quantum Circuits with Fubini-Study Metric Tensor
- arxiv url: http://arxiv.org/abs/2407.14761v2
- Date: Wed, 24 Jul 2024 07:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 18:02:43.573330
- Title: L2O-$g^{\dagger}$: Learning to Optimize Parameterized Quantum Circuits with Fubini-Study Metric Tensor
- Title(参考訳): L2O-$g^{\dagger}$:Fubini-Study Metric Tensorを用いたパラメータ化量子回路の最適化学習
- Authors: Yu-Chao Huang, Hsi-Sheng Goan,
- Abstract要約: We propose L2O-$gdagger$, a $textitquantum-aware$ learned that leverage the Fubin-Study metric and long short-term memory network。
L2O-$gdagger$ は以前の L2O 一般化と比較して分布が強いことを示す。
我々の小説『textitquantum-aware$ learn, L2O-$gdagger$』は、VQAの課題に対処する上での進歩を示している。
- 参考スコア(独自算出の注目度): 1.104960878651584
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Before the advent of fault-tolerant quantum computers, variational quantum algorithms (VQAs) play a crucial role in noisy intermediate-scale quantum (NISQ) machines. Conventionally, the optimization of VQAs predominantly relies on manually designed optimizers. However, learning to optimize (L2O) demonstrates impressive performance by training small neural networks to replace handcrafted optimizers. In our work, we propose L2O-$g^{\dagger}$, a $\textit{quantum-aware}$ learned optimizer that leverages the Fubini-Study metric tensor ($g^{\dagger}$) and long short-term memory networks. We theoretically derive the update equation inspired by the lookahead optimizer and incorporate the quantum geometry of the optimization landscape in the learned optimizer to balance fast convergence and generalization. Empirically, we conduct comprehensive experiments across a range of VQA problems. Our results demonstrate that L2O-$g^{\dagger}$ not only outperforms the current SOTA hand-designed optimizer without any hyperparameter tuning but also shows strong out-of-distribution generalization compared to previous L2O optimizers. We achieve this by training L2O-$g^{\dagger}$ on just a single generic PQC instance. Our novel $\textit{quantum-aware}$ learned optimizer, L2O-$g^{\dagger}$, presents an advancement in addressing the challenges of VQAs, making it a valuable tool in the NISQ era.
- Abstract(参考訳): フォールトトレラント量子コンピュータが出現する以前、変分量子アルゴリズム(VQA)はノイズの多い中間スケール量子(NISQ)マシンにおいて重要な役割を担っていた。
従来、VQAの最適化は主に手動設計の最適化に頼っていた。
しかし、L2O(Learning to Optimization)は、手作りオプティマイザを置き換えるために小さなニューラルネットワークをトレーニングすることで、素晴らしいパフォーマンスを示す。
本稿では,Fubini-Studyメートル法テンソル(g^{\dagger}$)と長期短期記憶ネットワークを利用したL2O-$g^{\dagger}$, a $\textit{quantum-aware}$学習オプティマイザを提案する。
理論的には、ルックアヘッドオプティマイザにインスパイアされた更新方程式を導出し、学習したオプティマイザに最適化ランドスケープの量子幾何学を組み込んで、高速収束と一般化のバランスをとる。
経験的に、我々は様々なVQA問題にまたがる総合的な実験を行っている。
その結果、L2O-$g^{\dagger}$は、現在のSOTAハンドデザインオプティマイザをハイパーパラメータチューニングなしで上回るだけでなく、以前のL2Oオプティマイザと比較して分布外一般化が強いことを示した。
単一の汎用PQCインスタンス上でL2O-$g^{\dagger}$をトレーニングすることでこれを実現する。
我々の小説 $\textit{quantum-aware}$ learn optimizationr, L2O-$g^{\dagger}$ は、VQAの課題に対処する進歩を示し、NISQ時代の貴重なツールである。
関連論文リスト
- M-L2O: Towards Generalizable Learning-to-Optimize by Test-Time Fast
Self-Adaptation [145.7321032755538]
L2O(Learning to Optimize)は、複雑なタスクの最適化手順を著しく加速させるため、注目を集めている。
本稿では, アウト・オブ・ディストリビューションタスクへの高速なテスト時間自己適応を実現するL2Oをメタトレーニングすることで, このオープンな課題に対する潜在的な解決策を検討する。
論文 参考訳(メタデータ) (2023-02-28T19:23:20Z) - Learning to Generalize Provably in Learning to Optimize [185.71326306329678]
最適化学習(L2O)は、データ駆動アプローチによる最適化設計を自動化することで、人気が高まっている。
現在のL2O法は、少なくとも2回は一般化性能の低下に悩まされることが多い。
我々はこの2つのメトリクスを平坦性を考慮した正規化器としてL2Oフレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-02-22T01:17:31Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - The QAOA with Few Measurements [4.713817702376467]
近似量子最適化アルゴリズム (QAOA) はもともと最適化問題の解法として開発された。
完全な記述型ベンチマーク技術は、多くの量子ビットに対してしばしば高価である。
中性原子量子コンピュータのような実験的な量子コンピューティングプラットフォームは、繰り返し速度が遅い。
論文 参考訳(メタデータ) (2022-05-13T18:42:20Z) - Symbolic Learning to Optimize: Towards Interpretability and Scalability [113.23813868412954]
近年のL2O(Learning to Optimize)研究は,複雑なタスクに対する最適化手順の自動化と高速化に期待できる道のりを示唆している。
既存のL2Oモデルは、ニューラルネットワークによる最適化ルールをパラメータ化し、メタトレーニングを通じてそれらの数値ルールを学ぶ。
本稿では,L2Oの総合的な記号表現と解析の枠組みを確立する。
そこで本稿では,大規模問題にメタトレーニングを施す軽量なL2Oモデルを提案する。
論文 参考訳(メタデータ) (2022-03-13T06:04:25Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Training Stronger Baselines for Learning to Optimize [119.35557905664832]
最も単純なL2Oモデルであっても、より優れたトレーニングが可能であることを示します。
我々は、分析学の振る舞いを参考にして、非政治模倣学習を利用してL2O学習を指導する。
改良されたトレーニング技術は、様々な最先端のL2Oモデルにプラグインされ、即座に性能が向上する。
論文 参考訳(メタデータ) (2020-10-18T20:05:48Z) - Hessian-based optimization of constrained quantum control [0.0]
勾配に基づくテキストスクリプアルゴリズムは、量子物理学の幅広い分野にうまく適用されている。
我々はコヒーレント力学の厳密な2mathrmnd$次解析微分を導出し実装する。
本稿では,制約付きユニタリゲート合成における最適かつ平均的な誤りに対して,回路テクスチャシステム上での性能改善を示す。
論文 参考訳(メタデータ) (2020-06-01T13:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。