論文の概要: DiffQ: Unified Parameter Initialization for Variational Quantum Algorithms via Diffusion Models
- arxiv url: http://arxiv.org/abs/2509.17324v1
- Date: Mon, 22 Sep 2025 02:58:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.217546
- Title: DiffQ: Unified Parameter Initialization for Variational Quantum Algorithms via Diffusion Models
- Title(参考訳): DiffQ:拡散モデルによる変分量子アルゴリズムの統一パラメータ初期化
- Authors: Chi Zhang, Mengxin Zheng, Qian Lou, Fan Chen,
- Abstract要約: DDPM(Denoising Diffusion Probabilistic Model)に基づくパラメータ初期化器DiffQを紹介する。
実験の結果、DiffQはベースラインを超え、初期損失を最大8.95まで減らし、収束ステップを最大23.4%減らした。
- 参考スコア(独自算出の注目度): 21.170560778286443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Quantum Algorithms (VQAs) are widely used in the noisy intermediate-scale quantum (NISQ) era, but their trainability and performance depend critically on initialization parameters that shape the optimization landscape. Existing machine learning-based initializers achieve state-of-the-art results yet remain constrained to single-task domains and small datasets of only hundreds of samples. We address these limitations by reformulating VQA parameter initialization as a generative modeling problem and introducing DiffQ, a parameter initializer based on the Denoising Diffusion Probabilistic Model (DDPM). To support robust training and evaluation, we construct a dataset of 15,085 instances spanning three domains and five representative tasks. Experiments demonstrate that DiffQ surpasses baselines, reducing initial loss by up to 8.95 and convergence steps by up to 23.4%.
- Abstract(参考訳): 変分量子アルゴリズム(VQA)は、ノイズの多い中間スケール量子(NISQ)時代に広く使われているが、その訓練性と性能は最適化風景を形成する初期化パラメータに大きく依存している。
既存の機械学習ベースのイニシャライザは、最先端の結果を達成するが、シングルタスクドメインと数百のサンプルの小さなデータセットに制約されない。
本稿では, VQAパラメータの初期化を生成モデル問題として再検討し, DiffQ, Denoising Diffusion Probabilistic Model (DDPM) に基づくパラメータ初期化器を導入することで,これらの制約に対処する。
堅牢なトレーニングと評価を支援するため、3つのドメインと5つの代表的なタスクにまたがる15,085のインスタンスのデータセットを構築した。
実験の結果、DiffQはベースラインを超え、初期損失を最大8.95まで減らし、収束ステップを最大23.4%減らした。
関連論文リスト
- VQEzy: An Open-Source Dataset for Parameter Initialize in Variational Quantum Eigensolvers [19.733085348473473]
変分量子固有解法(VQEs)は、ノイズの多い中間スケール量子(NISQ)アルゴリズムの第一級である。
VQEzyはVQEパラメータの初期化のための最初の大規模データセットである。
論文 参考訳(メタデータ) (2025-09-22T02:54:11Z) - Transition Models: Rethinking the Generative Learning Objective [68.16330673177207]
有限時間間隔で状態遷移を解析的に定義する連続時間力学方程式を導入する。
これは、任意のステップ遷移に適応する新しい生成パラダイムである遷移モデル(TiM)をもたらす。
TiMは最先端のパフォーマンスを達成し、SD3.5 (8Bパラメータ)やFLUX.1 (12Bパラメータ)といった主要なモデルを超える。
論文 参考訳(メタデータ) (2025-09-04T17:05:59Z) - Conditional Diffusion-based Parameter Generation for Quantum Approximate Optimization Algorithm [7.48670688063184]
量子近似最適化(Quantum Approximate Optimization、OAQA)は、MaxCut問題を効率的に解くための約束を示すハイブリッドである。
生成学習モデル、特に denoising diffusion (DDPM) は、グラフデータセット上の分布パラメータを学習することである。
論文 参考訳(メタデータ) (2024-07-17T01:18:27Z) - Graph Neural Networks for Parameterized Quantum Circuits Expressibility Estimation [5.074765131677166]
本稿では,グラフニューラルネットワーク(GNN)を用いた量子回路の表現可能性推定手法を提案する。
我々は、ノイズのないIBM QASMシミュレータから25,000のサンプルと、3つのノイズの多い量子バックエンドから12,000のサンプルからなるデータセットを用いて、GNNモデルの予測能力を実証した。
論文 参考訳(メタデータ) (2024-05-13T18:26:55Z) - Predicting Expressibility of Parameterized Quantum Circuits using Graph
Neural Network [5.444441239596186]
量子回路(PQC)の表現性を予測するためのグラフニューラルネットワーク(GNN)に基づく新しい手法を提案する。
グラフに基づくPQC表現を活用することで、GNNベースのモデルは、回路パラメータと結果の表現性の間の複雑な関係をキャプチャする。
4千個のランダムPQCデータセットとIBM Qiskitのハードウェア効率の良いアンサッツセットの実験評価により、我々のアプローチの優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-13T14:08:01Z) - Solving Oscillation Problem in Post-Training Quantization Through a
Theoretical Perspective [74.48124653728422]
ポストトレーニング量子化(PTQ)は、事実上最も効率的な圧縮手法の1つである。
我々は、PTQ法で見過ごされた振動問題について論じる。
論文 参考訳(メタデータ) (2023-03-21T14:52:52Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。