論文の概要: DiffQ: Unified Parameter Initialization for Variational Quantum Algorithms via Diffusion Models
- arxiv url: http://arxiv.org/abs/2509.17324v1
- Date: Mon, 22 Sep 2025 02:58:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.217546
- Title: DiffQ: Unified Parameter Initialization for Variational Quantum Algorithms via Diffusion Models
- Title(参考訳): DiffQ:拡散モデルによる変分量子アルゴリズムの統一パラメータ初期化
- Authors: Chi Zhang, Mengxin Zheng, Qian Lou, Fan Chen,
- Abstract要約: DDPM(Denoising Diffusion Probabilistic Model)に基づくパラメータ初期化器DiffQを紹介する。
実験の結果、DiffQはベースラインを超え、初期損失を最大8.95まで減らし、収束ステップを最大23.4%減らした。
- 参考スコア(独自算出の注目度): 21.170560778286443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Quantum Algorithms (VQAs) are widely used in the noisy intermediate-scale quantum (NISQ) era, but their trainability and performance depend critically on initialization parameters that shape the optimization landscape. Existing machine learning-based initializers achieve state-of-the-art results yet remain constrained to single-task domains and small datasets of only hundreds of samples. We address these limitations by reformulating VQA parameter initialization as a generative modeling problem and introducing DiffQ, a parameter initializer based on the Denoising Diffusion Probabilistic Model (DDPM). To support robust training and evaluation, we construct a dataset of 15,085 instances spanning three domains and five representative tasks. Experiments demonstrate that DiffQ surpasses baselines, reducing initial loss by up to 8.95 and convergence steps by up to 23.4%.
- Abstract(参考訳): 変分量子アルゴリズム(VQA)は、ノイズの多い中間スケール量子(NISQ)時代に広く使われているが、その訓練性と性能は最適化風景を形成する初期化パラメータに大きく依存している。
既存の機械学習ベースのイニシャライザは、最先端の結果を達成するが、シングルタスクドメインと数百のサンプルの小さなデータセットに制約されない。
本稿では, VQAパラメータの初期化を生成モデル問題として再検討し, DiffQ, Denoising Diffusion Probabilistic Model (DDPM) に基づくパラメータ初期化器を導入することで,これらの制約に対処する。
堅牢なトレーニングと評価を支援するため、3つのドメインと5つの代表的なタスクにまたがる15,085のインスタンスのデータセットを構築した。
実験の結果、DiffQはベースラインを超え、初期損失を最大8.95まで減らし、収束ステップを最大23.4%減らした。
関連論文リスト
- VQEzy: An Open-Source Dataset for Parameter Initialize in Variational Quantum Eigensolvers [19.733085348473473]
変分量子固有解法(VQEs)は、ノイズの多い中間スケール量子(NISQ)アルゴリズムの第一級である。
VQEzyはVQEパラメータの初期化のための最初の大規模データセットである。
論文 参考訳(メタデータ) (2025-09-22T02:54:11Z) - Transition Models: Rethinking the Generative Learning Objective [68.16330673177207]
有限時間間隔で状態遷移を解析的に定義する連続時間力学方程式を導入する。
これは、任意のステップ遷移に適応する新しい生成パラダイムである遷移モデル(TiM)をもたらす。
TiMは最先端のパフォーマンスを達成し、SD3.5 (8Bパラメータ)やFLUX.1 (12Bパラメータ)といった主要なモデルを超える。
論文 参考訳(メタデータ) (2025-09-04T17:05:59Z) - FIMA-Q: Post-Training Quantization for Vision Transformers by Fisher Information Matrix Approximation [55.12070409045766]
ポストトレーニング量子化(PTQ)は近年,費用対効果と有望なモデル圧縮パラダイムとして注目されている。
ビジョン変換器(ViT)の現在のPTQ法は、特に低ビット量子化において、精度が著しく低下している。
論文 参考訳(メタデータ) (2025-06-13T07:57:38Z) - Qracle: A Graph-Neural-Network-based Parameter Initializer for Variational Quantum Eigensolvers [9.785423342956616]
変分量子固有解法(VQE)のためのグラフニューラルネットワーク(GNN)に基づくパラメータ初期化器である textitQracle を提案する。
textitQracleは、初期損失の最大10.86ドルを減らし、最適化手順の最大6.42%を減らして収束を加速し、SMAPE(Symmetric Mean Absolute Percentage Error)の最大26.43%を減らして最終性能を改善する。
論文 参考訳(メタデータ) (2025-05-02T12:56:02Z) - Mitigating Barren Plateaus in Quantum Neural Networks via an AI-Driven Submartingale-Based Framework [3.0617189749929348]
量子ニューラルネットワーク(QNN)におけるバレンプラトー(BP)の緩和を目的としたAdaInitを提案する。
AdaInitは、非無視的な勾配分散をもたらすQNNの初期パラメータを反復的に合成し、BPを緩和する。
AdaInit が様々な QNN スケールで高い勾配分散を維持するために既存の手法を一貫して上回っていることを実証的に検証する。
論文 参考訳(メタデータ) (2025-02-17T05:57:15Z) - Conditional Diffusion-based Parameter Generation for Quantum Approximate Optimization Algorithm [7.48670688063184]
量子近似最適化(Quantum Approximate Optimization、OAQA)は、MaxCut問題を効率的に解くための約束を示すハイブリッドである。
生成学習モデル、特に denoising diffusion (DDPM) は、グラフデータセット上の分布パラメータを学習することである。
論文 参考訳(メタデータ) (2024-07-17T01:18:27Z) - Graph Neural Networks for Parameterized Quantum Circuits Expressibility Estimation [5.074765131677166]
本稿では,グラフニューラルネットワーク(GNN)を用いた量子回路の表現可能性推定手法を提案する。
我々は、ノイズのないIBM QASMシミュレータから25,000のサンプルと、3つのノイズの多い量子バックエンドから12,000のサンプルからなるデータセットを用いて、GNNモデルの予測能力を実証した。
論文 参考訳(メタデータ) (2024-05-13T18:26:55Z) - Data-free Weight Compress and Denoise for Large Language Models [96.68582094536032]
パラメータ行列を圧縮する手法として,データフリーなジョイントランクk近似を提案する。
キャリブレーションデータなしで、元の性能の93.43%を維持しながら80%のパラメータのモデルプルーニングを実現する。
論文 参考訳(メタデータ) (2024-02-26T05:51:47Z) - Predicting Expressibility of Parameterized Quantum Circuits using Graph
Neural Network [5.444441239596186]
量子回路(PQC)の表現性を予測するためのグラフニューラルネットワーク(GNN)に基づく新しい手法を提案する。
グラフに基づくPQC表現を活用することで、GNNベースのモデルは、回路パラメータと結果の表現性の間の複雑な関係をキャプチャする。
4千個のランダムPQCデータセットとIBM Qiskitのハードウェア効率の良いアンサッツセットの実験評価により、我々のアプローチの優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-13T14:08:01Z) - Solving Oscillation Problem in Post-Training Quantization Through a
Theoretical Perspective [74.48124653728422]
ポストトレーニング量子化(PTQ)は、事実上最も効率的な圧縮手法の1つである。
我々は、PTQ法で見過ごされた振動問題について論じる。
論文 参考訳(メタデータ) (2023-03-21T14:52:52Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。