論文の概要: Fine-Tuning Large Language Models on Quantum Optimization Problems for Circuit Generation
- arxiv url: http://arxiv.org/abs/2504.11109v1
- Date: Tue, 15 Apr 2025 11:56:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:33.884104
- Title: Fine-Tuning Large Language Models on Quantum Optimization Problems for Circuit Generation
- Title(参考訳): 回路生成のための量子最適化問題に関する微調整大言語モデル
- Authors: Linus Jern, Valter Uotila, Cong Yu, Bo Zhao,
- Abstract要約: 大規模言語モデル(LLM)は複雑な問題に対処する上で大きな成果を上げている。
本稿では,LLMを利用して量子回路を大規模に自動生成する方法を示す。
我々は、量子最適化のランドスケープの大部分をカバーする14,000個の量子回路を準備した。
- 参考スコア(独自算出の注目度): 4.447306899057931
- License:
- Abstract: Large language models (LLM) have achieved remarkable outcomes in addressing complex problems, including math, coding, and analyzing large amounts of scientific reports. Yet few works have explored the potential of LLM in quantum computing. The most challenging problem is how to leverage LLMs to automatically generate quantum circuits at a large scale. In this paper, we address such a challenge by fine-tuning LLMs and injecting the domain-specific knowledge of quantum computing. In particular, we investigate the mechanisms to generate training data sets and construct the end-to-end pipeline to fine-tune pre-trained LLMs that produce parameterized quantum circuits for optimization problems. We have prepared 14,000 quantum circuits covering a substantial part of the quantum optimization landscape: 12 optimization problem instances and their optimized QAOA, VQE, and adaptive VQE circuits. The fine-tuned LLMs can construct syntactically correct parametrized quantum circuits in the most recent OpenQASM 3.0. We have evaluated the quality of the parameters by comparing them to the optimized expectation values and distributions. Our evaluation shows that the fine-tuned LLM outperforms state-of-the-art models and that the parameters are better than random. The LLM-generated parametrized circuits and initial parameters can be used as a starting point for further optimization, \emph{e.g.,} templates in quantum machine learning and the benchmark for compilers and hardware.
- Abstract(参考訳): 大規模言語モデル(LLM)は、数学、コーディング、大量の科学的報告の分析を含む複雑な問題に対処する際、顕著な結果を得た。
しかし、量子コンピューティングにおけるLLMの可能性を探る研究はほとんどない。
最も難しい問題は、LLMを利用して量子回路を大規模に自動生成する方法である。
本稿では、LLMを微調整し、量子コンピューティングの領域固有の知識を注入することで、このような課題に対処する。
特に,学習データセットの生成機構について検討し,最適化問題に対するパラメータ化量子回路を生成するLLMを微調整するエンド・ツー・エンドパイプラインの構築を行う。
12の最適化問題インスタンスとその最適化QAOA, VQE, 適応VQE回路を網羅した14,000個の量子回路を用意した。
微調整されたLLMは、直近のOpenQASM 3.0において、構文的に正しいパラメタライズド量子回路を構築することができる。
パラメータを最適化された期待値や分布と比較することで,パラメータの品質を評価した。
評価の結果, 微調整LLMは最先端モデルより優れ, パラメータはランダムよりも優れていた。
LLM生成のパラメタライズド回路と初期パラメータは、さらなる最適化の出発点として、量子機械学習における \emph{e g ,}テンプレート、コンパイラとハードウェアのベンチマークとして使用できる。
関連論文リスト
- Q-MAML: Quantum Model-Agnostic Meta-Learning for Variational Quantum Algorithms [4.525216077859531]
モデル非依存メタラーニング(MAML)技術にインスパイアされた古典的手法を用いて,パラメータ化量子回路(PQC)を最適化するための新しいフレームワークを提案する。
我々のフレームワークはLearnerと呼ばれる古典的なニューラルネットワークを備えており、Learnerの出力を初期パラメータとしてPQCと相互作用する。
適応フェーズでは、学習者は変わらないまま、より正確な値に収束するために、いくつかのPQC更新しか必要としない。
論文 参考訳(メタデータ) (2025-01-10T12:07:00Z) - Bayesian Parameterized Quantum Circuit Optimization (BPQCO): A task and hardware-dependent approach [49.89480853499917]
変分量子アルゴリズム(VQA)は、最適化と機械学習問題を解決するための有望な量子代替手段として登場した。
本稿では,回路設計が2つの分類問題に対して得られる性能に与える影響を実験的に示す。
また、実量子コンピュータのシミュレーションにおいて、ノイズの存在下で得られた回路の劣化について検討する。
論文 参考訳(メタデータ) (2024-04-17T11:00:12Z) - Quantum Circuit Unoptimization [0.6449786007855248]
我々は、量子回路最適化と呼ばれる量子アルゴリズムプリミティブを構築する。
回路等価性を保ちながらいくつかの冗長性を導入することで、与えられた量子回路複合体を作る。
我々は、量子回路の最適化を用いて、コンパイラベンチマークを生成し、回路最適化性能を評価する。
論文 参考訳(メタデータ) (2023-11-07T08:38:18Z) - Pre-optimizing variational quantum eigensolvers with tensor networks [1.4512477254432858]
VQEをシミュレートすることで、パラメータ化量子回路のよい開始パラメータを求める手法を提示し、ベンチマークする。
最大32キュービットのシステムサイズを持つ1Dと2DのFermi-Hubbardモデルに適用する。
2Dでは、VTNEが検出するパラメータは開始構成よりもはるかに低いエネルギーであり、これらのパラメータから開始するVQEは、与えられたエネルギーに降り着くためには、自明に少ない演算を必要とすることを示す。
論文 参考訳(メタデータ) (2023-10-19T17:57:58Z) - Parallel circuit implementation of variational quantum algorithms [0.0]
本稿では,変分量子アルゴリズム(VQA)の量子回路を分割し,並列トレーニングと実行を可能にする手法を提案する。
本稿では,この問題からの固有構造を同定可能な最適化問題に適用する。
我々は,本手法がより大きな問題に対処できるだけでなく,1つのスライスのみを用いてパラメータをトレーニングしながら,完全なVQAモデルを実行することもできることを示した。
論文 参考訳(メタデータ) (2023-04-06T12:52:29Z) - End-to-end resource analysis for quantum interior point methods and portfolio optimization [63.4863637315163]
問題入力から問題出力までの完全な量子回路レベルのアルゴリズム記述を提供する。
アルゴリズムの実行に必要な論理量子ビットの数と非クリフォードTゲートの量/深さを報告する。
論文 参考訳(メタデータ) (2022-11-22T18:54:48Z) - Adiabatic Quantum Computing for Multi Object Tracking [170.8716555363907]
マルチオブジェクト追跡(MOT)は、オブジェクト検出が時間を通して関連付けられているトラッキング・バイ・検出のパラダイムにおいて、最もよくアプローチされる。
これらの最適化問題はNPハードであるため、現在のハードウェア上の小さなインスタンスに対してのみ正確に解決できる。
本手法は,既成整数計画法を用いても,最先端の最適化手法と競合することを示す。
論文 参考訳(メタデータ) (2022-02-17T18:59:20Z) - Variational Quantum Optimization with Multi-Basis Encodings [62.72309460291971]
マルチバスグラフ複雑性と非線形活性化関数の2つの革新の恩恵を受ける新しい変分量子アルゴリズムを導入する。
その結果,最適化性能が向上し,有効景観が2つ向上し,測定の進歩が減少した。
論文 参考訳(メタデータ) (2021-06-24T20:16:02Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。