論文の概要: Requirements Development and Formalization for Reliable Code Generation: A Multi-Agent Vision
- arxiv url: http://arxiv.org/abs/2508.18675v1
- Date: Tue, 26 Aug 2025 04:45:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.683076
- Title: Requirements Development and Formalization for Reliable Code Generation: A Multi-Agent Vision
- Title(参考訳): 信頼性のあるコード生成に必要な要件開発と形式化:マルチエージェントビジョン
- Authors: Xu Lu, Weisong Sun, Yiran Zhang, Ming Hu, Cong Tian, Zhi Jin, Yang Liu,
- Abstract要約: 我々は、textscrequirements textscdevelopmentとtextscformalization(textscDeFo)をベースとした、信頼性の高いコード生成のための最初のマルチエージェントフレームワークを構想する。
textscReDeFoの中核は、潜在的に曖昧な自然言語要求と正確な実行可能なコードの間のギャップを埋めるために、正式な仕様を使用することである。
- 参考スコア(独自算出の注目度): 45.59678433715798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated code generation has long been considered the holy grail of software engineering. The emergence of Large Language Models (LLMs) has catalyzed a revolutionary breakthrough in this area. However, existing methods that only rely on LLMs remain inadequate in the quality of generated code, offering no guarantees of satisfying practical requirements. They lack a systematic strategy for requirements development and modeling. Recently, LLM-based agents typically possess powerful abilities and play an essential role in facilitating the alignment of LLM outputs with user requirements. In this paper, we envision the first multi-agent framework for reliable code generation based on \textsc{re}quirements \textsc{de}velopment and \textsc{fo}rmalization, named \textsc{ReDeFo}. This framework incorporates three agents, highlighting their augmentation with knowledge and techniques of formal methods, into the requirements-to-code generation pipeline to strengthen quality assurance. The core of \textsc{ReDeFo} is the use of formal specifications to bridge the gap between potentially ambiguous natural language requirements and precise executable code. \textsc{ReDeFo} enables rigorous reasoning about correctness, uncovering hidden bugs, and enforcing critical properties throughout the development process. In general, our framework aims to take a promising step toward realizing the long-standing vision of reliable, auto-generated software.
- Abstract(参考訳): 自動コード生成は長年、ソフトウェア工学の聖杯と考えられてきた。
LLM(Large Language Models)の出現は、この分野で革命的なブレークスルーを引き起こした。
しかし、LLMのみに依存する既存のメソッドは、生成したコードの品質に不適切であり、実用的な要件を満たす保証を提供していません。
要求開発とモデリングのための体系的な戦略は欠如している。
近年, LLMをベースとしたエージェントは, 強力な能力を有し, LLM出力とユーザ要求との整合性向上に不可欠な役割を担っている。
本稿では, 信頼性のあるコード生成のための最初のマルチエージェントフレームワークを, \textsc{re}quirements \textsc{de}velopment と \textsc{fo}rmalization に基づいて想定する。
このフレームワークには3つのエージェントが組み込まれており、品質保証を強化するために、形式的なメソッドの知識とテクニックによる強化を強調している。
textsc{ReDeFo} の中核は、潜在的に曖昧な自然言語要求と正確な実行可能なコードの間のギャップを埋めるために、正式な仕様を使用することである。
\textsc{ReDeFo} は、正確性に関する厳密な推論、隠れたバグの発見、開発プロセス全体を通して重要なプロパティの実行を可能にする。
一般に、我々のフレームワークは、信頼できる自動生成ソフトウェアの長年のビジョンの実現に向けて、有望な一歩を踏み出すことを目的としています。
関連論文リスト
- Position Paper: Programming Language Techniques for Bridging LLM Code Generation Semantic Gaps [3.61356888205659]
本稿では,大規模言語モデルにおける意味的ギャップを埋めるのに,プログラミング手法の原則的統合が不可欠であることを論じる。
PL技術は、LLM生成コードを統計的パターンマッチングから真に信頼性と信頼性の高いレベルまで高めることができる。
論文 参考訳(メタデータ) (2025-07-12T04:32:15Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - ClarifyCoder: Clarification-Aware Fine-Tuning for Programmatic Problem Solving [3.683434365857386]
ClarifyCoderは、合成データ生成と命令チューニングを備えた新しいフレームワークである。
我々は、曖昧な要求を認識してクエリする基本的な能力は、モデル自体に固有のものであるべきだと論じている。
提案手法は,(1)不完全あるいは曖昧な要件に直面した場合に,即時コード生成よりも明確化を求めることをモデルに教える,微調整戦略である。
論文 参考訳(メタデータ) (2025-04-23T00:34:39Z) - CodeIF: Benchmarking the Instruction-Following Capabilities of Large Language Models for Code Generation [20.013757490442064]
タスク指向の命令に準拠する大規模言語モデル(LLM)の能力を評価するために設計された最初のベンチマークであるCodeIFを紹介する。
CodeIFは関数合成、アルゴリズム命令、コード説明など幅広いタスクを含んでいる。
我々はLLMによる広範囲な実験を行い、これらの課題の要求を満たす上での強みと限界を分析した。
論文 参考訳(メタデータ) (2025-02-26T14:19:49Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。