論文の概要: Quantum Circuit Generation via test-time learning with large language models
- arxiv url: http://arxiv.org/abs/2602.03466v2
- Date: Thu, 05 Feb 2026 16:53:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 16:28:44.943737
- Title: Quantum Circuit Generation via test-time learning with large language models
- Title(参考訳): 大規模言語モデルを用いたテスト時間学習による量子回路生成
- Authors: Adriano Macarone-Palmieri, Rosario Lo Franco,
- Abstract要約: 大規模言語モデル(LLM)は構造化されたアーティファクトを生成することができるが、科学的設計の信頼性として使用するにはブラックボックス評価の下で反復的改善のメカニズムが必要である。
LLMは固定長ゲートリストへの編集を提案し、外部シミュレータはMeyer-Wallach(MW)グローバルエンタングルメント尺度を用いて結果の状態を評価する。
従来のハイパフォーマンスな候補を明示的なメモリトレースとして再利用できる軽量なテスト時間学習レシピを導入し、スコア差フィードバックでプロンプトを強化し、再起動する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) can generate structured artifacts, but using them as dependable optimizers for scientific design requires a mechanism for iterative improvement under black-box evaluation. Here, we cast quantum circuit synthesis as a closed-loop, test-time optimization problem: an LLM proposes edits to a fixed-length gate list, and an external simulator evaluates the resulting state with the Meyer-Wallach (MW) global entanglement measure. We introduce a lightweight test-time learning recipe that can reuse prior high-performing candidates as an explicit memory trace, augments prompts with a score-difference feedback, and applies restart-from-the-best sampling to escape potential plateaus. Across fixed 20-qubit settings, the loop without feedback and restart-from-the-best improves random initial circuits over a range of gate budgets. To lift up this performance and success rate, we use the full learning strategy. For the 25-qubit, it mitigates a pronounced performance plateau when naive querying is used. Beyond raw scores, we analyze the structure of synthesized states and find that high MW solutions can correspond to stabilizer or graph-state-like constructions, but full connectivity is not guaranteed due to the metric property and prompt design. These results illustrate both the promise and the pitfalls of memory evaluator-guided LLM optimization for circuit synthesis, highlighting the critical role of prior human-made theoretical theorems to optimally design a custom tool in support of research.
- Abstract(参考訳): 大規模言語モデル(LLM)は構造化アーティファクトを生成することができるが、科学的設計のための信頼性の高いオプティマイザとして使用するには、ブラックボックス評価の下で反復的改善のメカニズムが必要である。
LLMは固定長ゲートリストへの編集を提案し、外部シミュレータはMeyer-Wallach(MW)グローバルエンタングルメント尺度を用いて結果の状態を評価する。
本稿では,従来のハイパフォーマンスな候補を明示的なメモリトレースとして再利用可能な軽量なテスト時間学習レシピを提案する。
固定された20量子ビット設定全体において、フィードバックのないループとベストからの再起動は、さまざまなゲート予算に対してランダムな初期回路を改善する。
このパフォーマンスと成功率を上げるために、私たちは完全な学習戦略を使用します。
25量子ビットでは、ナイーブなクエリが使用されるとき、顕著なパフォーマンスプラトーを緩和する。
生のスコアの他に、合成状態の構造を分析し、高いMW解は安定化器やグラフ状態のような構成に対応できるが、計量特性や設計の急速な推進により完全な接続は保証されない。
これらの結果は、メモリ評価器による回路合成のためのLLM最適化の約束と落とし穴の両方を示し、研究を支援するためのカスタムツールを最適に設計する人為的な理論定理の重要な役割を浮き彫りにした。
関連論文リスト
- From Brute Force to Semantic Insight: Performance-Guided Data Transformation Design with LLMs [48.83701310501069]
大規模言語モデル(LLM)は、コード合成において顕著な性能を達成した。
本稿では,LLMが最適変換を自律的に設計できる性能対応クローズドループソリューションを提案する。
6,000以上のPyTorch拡張関数を実験的に評価した新しいリポジトリ上で,低ランク適応型LPMを微調整する。
論文 参考訳(メタデータ) (2026-01-07T11:13:02Z) - Rectifying LLM Thought from Lens of Optimization [48.98086817378953]
ロングチェーン・オブ・シンクレット (Long chain-of- Thought, CoT) は、徹底的な調査と検討を可能にする。
進歩にもかかわらず、長いCoT LLMは、しばしば最適な推論行動を示す。
ポストトレーニング中のLCM推論を洗練するための新しい手法であるReProを紹介する。
論文 参考訳(メタデータ) (2025-12-01T17:41:08Z) - TopoSizing: An LLM-aided Framework of Topology-based Understanding and Sizing for AMS Circuits [7.615431299673158]
従来のブラックボックス最適化はサンプリング効率を実現するが、回路理解に欠ける。
提案するTopoSizeは、生のネットリストから直接、堅牢な回路理解を行うエンドツーエンドフレームワークである。
論文 参考訳(メタデータ) (2025-09-17T16:52:46Z) - Optimization Framework for Reducing Mid-circuit Measurements and Resets [0.13108652488669736]
中間回路計測とリセットの両方を対象とする最適化フレームワークを実装した。
ランダムに生成された動的回路の大規模なデータセットを用いて,我々のフレームワークを評価する。
論文 参考訳(メタデータ) (2025-04-23T10:01:00Z) - SymRTLO: Enhancing RTL Code Optimization with LLMs and Neuron-Inspired Symbolic Reasoning [30.938876549335067]
本稿では,新しいニューロン-シンボリックRTL最適化フレームワークであるSymRTLOを提案する。
有限状態機械(FSM)論理の解析と最適化のための記号モジュールを提案する。
Synopsys Design Compiler と Yosys による RTL-Rewriter ベンチマークの実験では、SymRTLO は 43.9% と 62.5% と 51.1% に向上している。
論文 参考訳(メタデータ) (2025-04-14T16:15:55Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。