論文の概要: Agent-Q: Fine-Tuning Large Language Models for Quantum Circuit Generation and Optimization
- arxiv url: http://arxiv.org/abs/2504.11109v2
- Date: Mon, 01 Sep 2025 14:13:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-03 14:24:52.293198
- Title: Agent-Q: Fine-Tuning Large Language Models for Quantum Circuit Generation and Optimization
- Title(参考訳): Agent-Q:量子回路生成と最適化のための微調整大言語モデル
- Authors: Linus Jern, Valter Uotila, Cong Yu, Bo Zhao,
- Abstract要約: 大規模言語モデル (LLMs) は、数学、コーディング、科学報告の分析を含む複雑な問題において顕著な成果を上げている。
本稿では,量子回路の生成と最適化を行うLLMファインチューニングシステムであるAgent-Qについて述べる。
- 参考スコア(独自算出の注目度): 5.2374261493530065
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) have achieved remarkable outcomes in complex problems, including math, coding, and analyzing large amounts of scientific reports. Yet, few works have explored the potential of LLMs in quantum computing. The most challenging problem is to leverage LLMs to automatically generate quantum circuits at a large scale. Fundamentally, the existing pre-trained LLMs lack the knowledge of quantum circuits. In this paper, we address this challenge by fine-tuning LLMs and injecting the domain-specific knowledge of quantum computing. We describe Agent-Q, an LLM fine-tuning system to generate and optimize quantum circuits. In particular, Agent-Q implements the mechanisms to generate training data sets and constructs an end-to-end pipeline to fine-tune pre-trained LLMs to generate parameterized quantum circuits for various optimization problems. Agent-Q provides 14,000 quantum circuits covering a large spectrum of the quantum optimization landscape: 12 optimization problem instances and their optimized QAOA, VQE, and adaptive VQE circuits. Based thereon, Agent-Q fine-tunes LLMs and constructs syntactically correct parametrized quantum circuits in OpenQASM 3.0. We have evaluated the quality of the LLM-generated circuits and parameters by comparing them to the optimized expectation values and distributions. Experimental results show superior performance of Agent-Q, compared to several state-of-the-art LLMs and better parameters than random. Agent-Q can be integrated into an agentic workflow, and the generated parametrized circuits with initial parameters can be used as a starting point for further optimization, e.g., as templates in quantum machine learning and as benchmarks for compilers and hardware.
- Abstract(参考訳): 大規模言語モデル (LLM) は、数学、コーディング、大量の科学的報告の分析を含む複雑な問題において顕著な結果を得た。
しかし、量子コンピューティングにおけるLLMの可能性を探る研究はほとんどない。
最も難しい問題は、LLMを利用して量子回路を大規模に自動生成することである。
基本的に、既存の事前訓練されたLLMは量子回路の知識を欠いている。
本稿では、LLMを微調整し、量子コンピューティングの領域固有の知識を注入することで、この問題に対処する。
本稿では,量子回路の生成と最適化を行うLLMファインチューニングシステムであるAgent-Qについて述べる。
特に、Agent-Qは、トレーニングデータセットを生成するメカニズムを実装し、様々な最適化問題のためのパラメータ化量子回路を生成するために、訓練済みのLLMを微調整するためのエンドツーエンドパイプラインを構築する。
Agent-Qは、12の最適化問題インスタンスとその最適化QAOA、VQE、適応VQE回路を含む、量子最適化ランドスケープの広いスペクトルをカバーする14,000の量子回路を提供する。
エージェントQファインチューンLSMをベースとして、OpenQASM 3.0でシンタクティックに正しいパラメトリゼーション量子回路を構築している。
我々は、LLM生成回路とパラメータの品質を、最適化された期待値と分布と比較することで評価した。
実験結果から, エージェントQの性能は, 最先端のLLMに比べて優れ, パラメータもランダムよりも優れていた。
Agent-Qはエージェントワークフローに統合することができ、生成した初期パラメータを持つパラメトリック回路は、量子機械学習のテンプレートやコンパイラやハードウェアのベンチマークとして、さらなる最適化の出発点として使用できる。
関連論文リスト
- Circuit Partitioning Using Large Language Models for Quantum Compilation and Simulations [6.180118431476265]
量子コンピュータはノイズの多いゲートによって制限されており、そのうちのいくつかは他のものよりもエラーを起こし、最終的な理解が難しい。
量子回路コンパイルアルゴリズムは、量子アルゴリズムを量子ハードウェアにマッピングする際のノイズの多いゲートを最小化しようとする。
大規模言語モデル(LLM)は、これを変更し、量子回路分割を改善するのに役立つ可能性がある。
論文 参考訳(メタデータ) (2025-05-12T16:18:48Z) - Cross-Problem Parameter Transfer in Quantum Approximate Optimization Algorithm: A Machine Learning Approach [0.7560883489000579]
我々は、MaxCutの事前訓練されたQAOAパラメータをそのまま使用することができるか、最大独立セット(MIS)回路を暖められるかを検討する。
実験結果から,このようなパラメータ転送が要求される最適化イテレーションの回数を大幅に削減できることが示唆された。
論文 参考訳(メタデータ) (2025-04-14T21:56:11Z) - Q-MAML: Quantum Model-Agnostic Meta-Learning for Variational Quantum Algorithms [4.525216077859531]
モデル非依存メタラーニング(MAML)技術にインスパイアされた古典的手法を用いて,パラメータ化量子回路(PQC)を最適化するための新しいフレームワークを提案する。
我々のフレームワークはLearnerと呼ばれる古典的なニューラルネットワークを備えており、Learnerの出力を初期パラメータとしてPQCと相互作用する。
適応フェーズでは、学習者は変わらないまま、より正確な値に収束するために、いくつかのPQC更新しか必要としない。
論文 参考訳(メタデータ) (2025-01-10T12:07:00Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Bayesian Parameterized Quantum Circuit Optimization (BPQCO): A task and hardware-dependent approach [49.89480853499917]
変分量子アルゴリズム(VQA)は、最適化と機械学習問題を解決するための有望な量子代替手段として登場した。
本稿では,回路設計が2つの分類問題に対して得られる性能に与える影響を実験的に示す。
また、実量子コンピュータのシミュレーションにおいて、ノイズの存在下で得られた回路の劣化について検討する。
論文 参考訳(メタデータ) (2024-04-17T11:00:12Z) - Quantum Circuit Unoptimization [0.6449786007855248]
我々は、量子回路最適化と呼ばれる量子アルゴリズムプリミティブを構築する。
回路等価性を保ちながらいくつかの冗長性を導入することで、与えられた量子回路複合体を作る。
我々は、量子回路の最適化を用いて、コンパイラベンチマークを生成し、回路最適化性能を評価する。
論文 参考訳(メタデータ) (2023-11-07T08:38:18Z) - Pre-optimizing variational quantum eigensolvers with tensor networks [1.4512477254432858]
VQEをシミュレートすることで、パラメータ化量子回路のよい開始パラメータを求める手法を提示し、ベンチマークする。
最大32キュービットのシステムサイズを持つ1Dと2DのFermi-Hubbardモデルに適用する。
2Dでは、VTNEが検出するパラメータは開始構成よりもはるかに低いエネルギーであり、これらのパラメータから開始するVQEは、与えられたエネルギーに降り着くためには、自明に少ない演算を必要とすることを示す。
論文 参考訳(メタデータ) (2023-10-19T17:57:58Z) - Parallel circuit implementation of variational quantum algorithms [0.0]
本稿では,変分量子アルゴリズム(VQA)の量子回路を分割し,並列トレーニングと実行を可能にする手法を提案する。
本稿では,この問題からの固有構造を同定可能な最適化問題に適用する。
我々は,本手法がより大きな問題に対処できるだけでなく,1つのスライスのみを用いてパラメータをトレーニングしながら,完全なVQAモデルを実行することもできることを示した。
論文 参考訳(メタデータ) (2023-04-06T12:52:29Z) - End-to-end resource analysis for quantum interior point methods and portfolio optimization [63.4863637315163]
問題入力から問題出力までの完全な量子回路レベルのアルゴリズム記述を提供する。
アルゴリズムの実行に必要な論理量子ビットの数と非クリフォードTゲートの量/深さを報告する。
論文 参考訳(メタデータ) (2022-11-22T18:54:48Z) - Adiabatic Quantum Computing for Multi Object Tracking [170.8716555363907]
マルチオブジェクト追跡(MOT)は、オブジェクト検出が時間を通して関連付けられているトラッキング・バイ・検出のパラダイムにおいて、最もよくアプローチされる。
これらの最適化問題はNPハードであるため、現在のハードウェア上の小さなインスタンスに対してのみ正確に解決できる。
本手法は,既成整数計画法を用いても,最先端の最適化手法と競合することを示す。
論文 参考訳(メタデータ) (2022-02-17T18:59:20Z) - Variational Quantum Optimization with Multi-Basis Encodings [62.72309460291971]
マルチバスグラフ複雑性と非線形活性化関数の2つの革新の恩恵を受ける新しい変分量子アルゴリズムを導入する。
その結果,最適化性能が向上し,有効景観が2つ向上し,測定の進歩が減少した。
論文 参考訳(メタデータ) (2021-06-24T20:16:02Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。