論文の概要: QuanBench: Benchmarking Quantum Code Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2510.16779v1
- Date: Sun, 19 Oct 2025 10:08:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.139357
- Title: QuanBench: Benchmarking Quantum Code Generation with Large Language Models
- Title(参考訳): QuanBench: 大規模言語モデルによる量子コード生成のベンチマーク
- Authors: Xiaoyu Guo, Minggu Wang, Jianjun Zhao,
- Abstract要約: 大規模言語モデル(LLM)は、一般的なコード生成において優れた性能を示している。
本稿では,量子コード生成におけるLLMの評価ベンチマークであるQuanBenchを提案する。
- 参考スコア(独自算出の注目度): 7.807551490308163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated good performance in general code generation; however, their capabilities in quantum code generation remain insufficiently studied. This paper presents QuanBench, a benchmark for evaluating LLMs on quantum code generation. QuanBench includes 44 programming tasks that cover quantum algorithms, state preparation, gate decomposition, and quantum machine learning. Each task has an executable canonical solution and is evaluated by functional correctness (Pass@K) and quantum semantic equivalence (Process Fidelity). We evaluate several recent LLMs, including general-purpose and code-specialized models. The results show that current LLMs have limited capability in generating the correct quantum code, with overall accuracy below 40% and frequent semantic errors. We also analyze common failure cases, such as outdated API usage, circuit construction errors, and incorrect algorithm logic. QuanBench provides a basis for future work on improving quantum code generation with LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、一般的なコード生成において優れた性能を示したが、量子コード生成におけるそれらの能力はまだ十分に研究されていない。
本稿では,量子コード生成におけるLLMの評価ベンチマークであるQuanBenchを提案する。
QuanBenchには、量子アルゴリズム、状態準備、ゲート分解、量子機械学習をカバーする44のプログラミングタスクが含まれている。
各タスクは実行可能な標準解を持ち、関数的正当性(Pass@K)と量子意味論的等価性(Process Fidelity)によって評価される。
汎用モデルやコード特化モデルなど,最近のLLMを評価した。
その結果、現在のLLMは正しい量子コードを生成する能力に限界があり、全体の精度は40%以下であり、頻繁なセマンティックエラーであることがわかった。
また、古いAPIの使用、回路構成エラー、誤ったアルゴリズムロジックなど、一般的な障害ケースも分析します。
QuanBenchは将来のLLMによる量子コード生成の改善の基礎を提供する。
関連論文リスト
- QUASAR: Quantum Assembly Code Generation Using Tool-Augmented LLMs via Agentic RL [8.823588193058727]
大規模言語モデル(LLM)に基づく量子回路生成は有望な自動解法として登場した。
本稿では,量子回路生成と最適化のためのエージェント強化学習フレームワークであるQUISARを提案する。
論文 参考訳(メタデータ) (2025-10-01T14:40:04Z) - LLM-Guided Ansätze Design for Quantum Circuit Born Machines in Financial Generative Modeling [0.9176056742068813]
量子回路ボルンマシン(QCBM)を用いた量子生成モデリングは、実用的な量子優位性を示す。
本稿では,大規模言語モデル(LLM)を利用してハードウェア対応QCBMアーキテクチャを生成するプロンプトベースのフレームワークを提案する。
実際のIBM量子ハードウェア上で12量子ビットを用いて実行される場合, LLM 生成した ans"atze は, 標準ベースラインに比べて著しく浅く, 生成性能に優れることを示す。
論文 参考訳(メタデータ) (2025-09-10T08:23:58Z) - Quantum Verifiable Rewards for Post-Training Qiskit Code Assistant [7.459767023316693]
量子ハードウェア上でのコード品質と実行可能性を確保するための有効な方法として量子検証を導入する。
我々は、量子ハードウェアが提供する量子検証可能な報酬を活用して、GRPOを使用してモデルを訓練した。
論文 参考訳(メタデータ) (2025-08-28T15:37:40Z) - Quantum Knowledge Distillation for Large Language Models [10.023534560183919]
大規模言語モデルのための量子知識蒸留モデル(QD-LLM)を提案する。
古典的シミュレーションでは、QD-LLMは複数のテキスト分類タスクにおいていくつかの主流蒸留法より優れている。
得られた回路をQuafuプラットフォームを介してBaihua超伝導量子プロセッサ上に展開し,実用性を評価する。
論文 参考訳(メタデータ) (2025-05-19T14:56:24Z) - An Efficient Quantum Classifier Based on Hamiltonian Representations [50.467930253994155]
量子機械学習(QML)は、量子コンピューティングの利点をデータ駆動タスクに移行しようとする分野である。
入力をパウリ弦の有限集合にマッピングすることで、データ符号化に伴うコストを回避できる効率的な手法を提案する。
我々は、古典的および量子モデルに対して、テキストおよび画像分類タスクに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2025-04-13T11:49:53Z) - Qiskit Code Assistant: Training LLMs for generating Quantum Computing Code [2.0108122340549985]
本稿では,量子コンピューティングの分野を専門とする Code LLM のトレーニングに焦点をあてる。
量子コンピューティングに特化したコードLLMは、量子コンピューティングと量子情報理論の基本的な理解を必要とする。
我々は,Qiskitライブラリを用いて,高品質な量子コードを生成するための Code LLMs のトレーニングについて論じる。
論文 参考訳(メタデータ) (2024-05-29T20:21:00Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - InfiBench: Evaluating the Question-Answering Capabilities of Code Large Language Models [56.723509505549536]
InfiBenchは、私たちの知識に合ったコードのための、最初の大規模フリーフォーム質問回答(QA)ベンチマークです。
慎重に選択された234の高品質なStack Overflow質問で構成されており、15のプログラミング言語にまたがっている。
InfiBench上で100以上の最新のコードLLMに対して,系統的評価を行い,新しい知見と洞察に富んだ結果を得た。
論文 参考訳(メタデータ) (2024-03-11T02:06:30Z) - Recent Advances for Quantum Neural Networks in Generative Learning [98.88205308106778]
量子生成学習モデル(QGLM)は、古典的な学習モデルを上回る可能性がある。
機械学習の観点からQGLMの現状を概観する。
従来の機械学習タスクと量子物理学の両方におけるQGLMの潜在的な応用について論じる。
論文 参考訳(メタデータ) (2022-06-07T07:32:57Z) - A MLIR Dialect for Quantum Assembly Languages [78.8942067357231]
量子コンピューティングにおけるMLIR(Multi-Level Intermediate Representation)の有用性を実証する。
我々は、共通量子集合言語の表現とコンパイルを可能にする新しい量子方言でMLIRを拡張した。
我々はQIR量子ランタイムAPIのqcor対応実装を活用して、再ターゲット可能な(量子ハードウェアに依存しない)コンパイラワークフローを実現する。
論文 参考訳(メタデータ) (2021-01-27T13:00:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。