論文の概要: PVLS: A Learning-based Parameter Prediction Technique for Variational Quantum Linear Solvers
- arxiv url: http://arxiv.org/abs/2512.04909v1
- Date: Thu, 04 Dec 2025 15:37:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.248728
- Title: PVLS: A Learning-based Parameter Prediction Technique for Variational Quantum Linear Solvers
- Title(参考訳): PVLS:変分量子線形解の学習に基づくパラメータ予測手法
- Authors: Youla Yang,
- Abstract要約: 本稿では、グラフニューラルネットワーク(GNN)を用いてVQLS回路の高品質な初期パラメータを生成する学習ベースのパラメータ予測フレームワークPVLSを紹介する。
16から1024までの行列サイズの実験では、PVLSは最適化の2.6倍のスピードアップを提供し、より少ないイテレーションを必要とすることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Quantum Linear Solvers (VQLS) are a promising method for solving linear systems on near-term quantum devices. However, their performance is often limited by barren plateaus and inefficient parameter initialization, which significantly hinder trainability as the system size increases. In this work, we introduce PVLS, a learning-based parameter prediction framework that uses Graph Neural Networks (GNNs) to generate high-quality initial parameters for VQLS circuits. By leveraging structural information from the coefficient matrix, PVLS predicts expressive and scalable initializations that improve convergence and reduce optimization difficulty. Extensive experiments on matrix sizes ranging from 16 to 1024 show that PVLS provides up to a 2.6x speedup in optimization and requires fewer iterations while maintaining comparable solution accuracy. These results demonstrate the potential of machine-learning-guided initialization strategies for improving the practicality of hybrid quantum-classical algorithms in the NISQ era.
- Abstract(参考訳): 変分量子線形解法(VQLS)は、短期量子デバイス上で線形システムを解くための有望な方法である。
しかし、その性能は不毛の台地と非効率なパラメータ初期化によって制限されることが多く、システムサイズが大きくなるにつれてトレーニング容易性が著しく低下する。
本稿では,グラフニューラルネットワーク(GNN)を用いてVQLS回路の高品質な初期パラメータを生成する学習型パラメータ予測フレームワークであるPVLSを紹介する。
PVLSは、係数行列からの構造情報を活用することにより、収束を改善し、最適化の難しさを軽減する表現的かつスケーラブルな初期化を予測する。
16から1024までの行列サイズに関する大規模な実験は、PVLSが最適化において最大2.6倍のスピードアップを提供し、同等の解精度を維持しながらイテレーションを少なくすることを示した。
これらの結果は、NISQ時代のハイブリッド量子古典アルゴリズムの実用性を改善するための機械学習誘導初期化戦略の可能性を示している。
関連論文リスト
- Breaking Through Barren Plateaus: Reinforcement Learning Initializations for Deep Variational Quantum Circuits [21.491246867521053]
変分量子アルゴリズム(VQA)は、短期量子デバイスを活用可能なフレームワークとして注目されている。
VQAの有効性は、システムサイズや回路深さが増加するにつれて勾配が指数関数的に減少するいわゆるバレン高原問題によって制約されることが多い。
論文 参考訳(メタデータ) (2025-08-25T21:37:36Z) - Reparameterized LLM Training via Orthogonal Equivalence Transformation [54.80172809738605]
直交同値変換を用いてニューロンを最適化する新しいトレーニングアルゴリズムPOETを提案する。
POETは、目的関数を安定して最適化し、一般化を改善する。
我々は、大規模ニューラルネットワークのトレーニングにおいて、POETを柔軟かつスケーラブルにするための効率的な近似を開発する。
論文 参考訳(メタデータ) (2025-06-09T17:59:34Z) - Accelerating Parameter Initialization in Quantum Chemical Simulations via LSTM-FC-VQE [5.396660696277483]
我々はLong Short-Term Memory Neural Networkを用いて量子化学シミュレーションを高速化する。
LSTMを小さな分子から最適化されたパラメータで訓練することにより、モデルはより大きなシステムに対する高品質な初期化を予測することを学ぶ。
論文 参考訳(メタデータ) (2025-05-16T04:19:00Z) - Qracle: A Graph-Neural-Network-based Parameter Initializer for Variational Quantum Eigensolvers [9.785423342956616]
変分量子固有解法(VQE)のためのグラフニューラルネットワーク(GNN)に基づくパラメータ初期化器である textitQracle を提案する。
textitQracleは、初期損失の最大10.86ドルを減らし、最適化手順の最大6.42%を減らして収束を加速し、SMAPE(Symmetric Mean Absolute Percentage Error)の最大26.43%を減らして最終性能を改善する。
論文 参考訳(メタデータ) (2025-05-02T12:56:02Z) - Q-MAML: Quantum Model-Agnostic Meta-Learning for Variational Quantum Algorithms [4.525216077859531]
モデル非依存メタラーニング(MAML)技術にインスパイアされた古典的手法を用いて,パラメータ化量子回路(PQC)を最適化するための新しいフレームワークを提案する。
我々のフレームワークはLearnerと呼ばれる古典的なニューラルネットワークを備えており、Learnerの出力を初期パラメータとしてPQCと相互作用する。
適応フェーズでは、学習者は変わらないまま、より正確な値に収束するために、いくつかのPQC更新しか必要としない。
論文 参考訳(メタデータ) (2025-01-10T12:07:00Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z) - GradInit: Learning to Initialize Neural Networks for Stable and
Efficient Training [59.160154997555956]
ニューラルネットワークを初期化するための自動化およびアーキテクチャ手法であるgradinitを提案する。
各ネットワーク層の分散は、SGDまたはAdamの単一ステップが最小の損失値をもたらすように調整される。
また、学習率のウォームアップを伴わずに、オリジナルのPost-LN Transformerを機械翻訳用にトレーニングすることもできる。
論文 参考訳(メタデータ) (2021-02-16T11:45:35Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。