論文の概要: Quantum-Guided Test Case Minimization for LLM-Based Code Generation
- arxiv url: http://arxiv.org/abs/2511.15665v1
- Date: Wed, 19 Nov 2025 18:00:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.932366
- Title: Quantum-Guided Test Case Minimization for LLM-Based Code Generation
- Title(参考訳): LLMコード生成のための量子ガイドテストケース最小化
- Authors: Huixiang Zhang, Mahzabeen Emu,
- Abstract要約: テスト駆動開発(TDD)に基づいたフレームワークを導入し、コード仕様をエンジニアリング最適化タスクに変換する。
このフレームワークはまずLLMにテストスイートを生成するように促し、次にテストケース最小化(TCM)問題を準拘束不能バイナリ最適化(QUBO)モデルとして定式化する。
この研究は、生成AIとソフトウェアエンジニアリングにおける最適化の強力な相乗効果を示し、正確なモデル定式化の重要性を強調している。
- 参考スコア(独自算出の注目度): 0.42970700836450487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precisely controlling Large Language Models (LLMs) to generate efficient and concise code is a central challenge in software engineering. We introduce a framework based on Test-Driven Development (TDD) that transforms code specification into a combinatorial optimization task. The framework first prompts an LLM to generate a test suite, then formulates the Test Case Minimization (TCM) problem as a Quadratic Unconstrained Binary Optimization (QUBO) model. This QUBO paradigm is compatible with both classical solvers and emerging hardware such as quantum annealers. Experimentally, quantum annealing solves the core TCM task 16 times faster than simulated annealing. This performance underpins our end-to-end framework, which reduces total token consumption by 36.5\% and significantly improves code quality. This work demonstrates a powerful synergy between generative AI and combinatorial optimization in software engineering, highlighting the critical importance of precise model formulation.
- Abstract(参考訳): 効率よく簡潔なコードを生成するために、LLM(Large Language Models)を正確に制御することは、ソフトウェア工学における重要な課題である。
テスト駆動開発(TDD)に基づいたフレームワークを導入し、コード仕様を組合せ最適化タスクに変換する。
このフレームワークはまずLLMにテストスイートを生成するように促し、次にテストケース最小化(TCM)問題を準拘束不能バイナリ最適化(QUBO)モデルとして定式化する。
このQUBOパラダイムは、古典的な解法と量子アニールのような新しいハードウェアの両方と互換性がある。
実験的に、量子アニールは、シミュレーションアニールの16倍の速度でコアTCMタスクを解く。
このパフォーマンスはエンドツーエンドのフレームワークを支えるもので、トークンの総消費を36.5%削減し、コード品質を大幅に改善します。
この研究は、生成AIとソフトウェアエンジニアリングにおける組合せ最適化の強力な相乗効果を示し、正確なモデル定式化の重要性を強調している。
関連論文リスト
- LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - White-Box Reasoning: Synergizing LLM Strategy and gm/Id Data for Automated Analog Circuit Design [12.945607121034124]
本稿では,LLMの戦略的推論とgm/Id方法論の物理的精度を統合する「シネジスティック推論」フレームワークを提案する。
当社のフレームワークは, シニアエンジニアの設計と比較して, 精度のオーダー・オブ・マグニチュードの改善を図りながら, 準エキスパートの質を達成している。
論文 参考訳(メタデータ) (2025-08-09T01:25:27Z) - Optimizing Prompt Sequences using Monte Carlo Tree Search for LLM-Based Optimization [20.44067161623662]
大規模言語モデル(LLM)は、コード生成と構造化推論において顕著な能力を示した。
本稿では,モンテカルロ木探索によって導かれる逐次決定過程として,選択を高速化するニューラルシンボリックフレームワークを提案する。
本手法は,コード生成品質の向上を目的として,複数ステップのプロンプトシーケンスを探索・精査する。
論文 参考訳(メタデータ) (2025-08-08T04:01:24Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - SymRTLO: Enhancing RTL Code Optimization with LLMs and Neuron-Inspired Symbolic Reasoning [30.938876549335067]
本稿では,新しいニューロン-シンボリックRTL最適化フレームワークであるSymRTLOを提案する。
有限状態機械(FSM)論理の解析と最適化のための記号モジュールを提案する。
Synopsys Design Compiler と Yosys による RTL-Rewriter ベンチマークの実験では、SymRTLO は 43.9% と 62.5% と 51.1% に向上している。
論文 参考訳(メタデータ) (2025-04-14T16:15:55Z) - LLM4EFFI: Leveraging Large Language Models to Enhance Code Efficiency and Correctness [38.399282089600284]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを示している。
ulineLarge ulineLanguage ulineModel for Code ulineEfficiencyは、LLMが効率性と正確性の両方のバランスをとるコードを生成することができる新しいフレームワークである。
論文 参考訳(メタデータ) (2025-02-17T07:01:18Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。