論文の概要: MaintainCoder: Maintainable Code Generation Under Dynamic Requirements
- arxiv url: http://arxiv.org/abs/2503.24260v2
- Date: Sat, 17 May 2025 03:23:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.562852
- Title: MaintainCoder: Maintainable Code Generation Under Dynamic Requirements
- Title(参考訳): MaintainCoder: 動的要件下での保守可能なコード生成
- Authors: Zhengren Wang, Rui Ling, Chufan Wang, Yongan Yu, Sizhe Wang, Zhiyu Li, Feiyu Xiong, Wentao Zhang,
- Abstract要約: 最小限の再作業で動的要求を処理する先駆的なソリューションとして textbfMaintainCoder を提案する。
ウォーターフォールモデル、デザインパターン、マルチエージェントのコラボレーションを統合して、凝集を体系的に強化し、結合を減らし、明確な責任境界を達成し、メンテナンス性を向上させる。
私たちの仕事は、保守可能なコード生成の基礎を提供するだけでなく、より現実的で包括的なコード生成研究の必要性も強調しています。
- 参考スコア(独自算出の注目度): 22.74831630054096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern code generation has made significant strides in functional correctness and execution efficiency. However, these systems often overlook a critical dimension in real-world software development: \textit{maintainability}. To handle dynamic requirements with minimal rework, we propose \textbf{MaintainCoder} as a pioneering solution. It integrates the Waterfall model, design patterns, and multi-agent collaboration to systematically enhance cohesion, reduce coupling, achieving clear responsibility boundaries and better maintainability. We also introduce \textbf{MaintainBench}, a benchmark comprising requirement changes and novel dynamic metrics on maintenance efforts. Experiments demonstrate that existing code generation methods struggle to meet maintainability standards when requirements evolve. In contrast, MaintainCoder improves dynamic maintainability metrics by more than 60\% with even higher correctness of initial codes. Furthermore, while static metrics fail to accurately reflect maintainability and even contradict each other, our proposed dynamic metrics exhibit high consistency. Our work not only provides the foundation for maintainable code generation, but also highlights the need for more realistic and comprehensive code generation research.
- Abstract(参考訳): 現代のコード生成は、機能の正しさと実行効率に大きな進歩を遂げた。
しかしながら、これらのシステムは現実世界のソフトウェア開発において重要な側面を見落としていることが多い。
動的要求を最小限のリワークで処理するために、先駆的なソリューションとして \textbf{MaintainCoder} を提案する。
ウォーターフォールモデル、デザインパターン、マルチエージェントのコラボレーションを統合して、凝集を体系的に強化し、結合を減らし、明確な責任境界を達成し、メンテナンス性を向上させる。
また、要件の変更とメンテナンス作業に関する新しいダイナミックメトリクスを含むベンチマークである、‘textbf{MaintainBench}’も紹介する。
既存のコード生成メソッドは、要求が進化するときに保守性基準を満たすのに苦労している。
対照的に、MaintainCoderは、初期コードの正確性をさらに高めながら、動的保守性メトリクスを60\%以上改善します。
さらに、静的なメトリクスは保守性を正確に反映できず、矛盾することもあるが、提案した動的メトリクスは高い一貫性を示す。
私たちの仕事は、保守可能なコード生成の基礎を提供するだけでなく、より現実的で包括的なコード生成研究の必要性も強調しています。
関連論文リスト
- ReCoDe: Reinforcement Learning-based Dynamic Constraint Design for Multi-Agent Coordination [19.115931862737508]
本稿では,分散化されたハイブリッドフレームワークReCoDeを紹介する。これは,最適化ベースのコントローラの信頼性と強化学習の適応性を融合させる。
本研究では、複雑なコンテキストベースの動きとコンセンサスを必要とするマルチエージェントナビゲーションタスクへのReCoDeの適用に焦点を当てる。
我々は,ユーザ定義コントローラの維持が不完全である場合でも,スクラッチから学習するよりも効率的であるという経験的(実際のロボット)および理論的証拠を提示する。
論文 参考訳(メタデータ) (2025-07-25T10:47:39Z) - UniConFlow: A Unified Constrained Generalization Framework for Certified Motion Planning with Flow Matching Models [16.275286046169594]
生成モデルはロボットモーション生成の強力なツールとなり、様々なタスクで柔軟で多モーダルな軌道生成を可能にしている。
本論文では,同一性制約と不等式制約の両方を体系的に組み込んだトラジェクトリ生成のための統一フローマッチングフレームワークUniConFlowを提案する。
我々は移動ナビゲーションと高次元操作タスクを行い、最先端の制約付き生成プランナと比較して安全性と実現可能性の向上を図っている。
論文 参考訳(メタデータ) (2025-06-03T14:48:04Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - SolBench: A Dataset and Benchmark for Evaluating Functional Correctness in Solidity Code Completion and Repair [51.0686873716938]
コード補完モデルによって生成されたSolidityスマートコントラクトの機能的正しさを評価するベンチマークであるSolBenchを紹介する。
本稿では,スマートコントラクトの機能的正当性を検証するための検索拡張コード修復フレームワークを提案する。
その結果、コード修復と検索技術は、計算コストを削減しつつ、スマートコントラクト完了の正しさを効果的に向上することを示した。
論文 参考訳(メタデータ) (2025-03-03T01:55:20Z) - CodeIF: Benchmarking the Instruction-Following Capabilities of Large Language Models for Code Generation [24.090719826360342]
我々は、コード生成シナリオ内でタスク指向の命令に従うために、LLM(Large Language Models)の能力を評価するために設計された最初のベンチマークであるCodeIFを紹介する。
我々はLLMによる広範囲な実験を行い、これらの課題の要求を満たす上での強みと限界を分析した。
論文 参考訳(メタデータ) (2025-02-26T14:19:49Z) - ConAIR:Consistency-Augmented Iterative Interaction Framework to Enhance the Reliability of Code Generation [17.68163468068264]
コード生成, ConAIR の信頼性を高めるために, 一貫性を付加した反復的相互作用フレームワークを提案する。
人間の努力を最小限に抑えることで、パフォーマンスを大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-11-23T15:26:24Z) - See-Saw Generative Mechanism for Scalable Recursive Code Generation with Generative AI [0.0]
本稿では,動的かつ反復的なコード生成手法であるSee-Saw生成機構を紹介する。
提案されたアプローチは、アライメントと機能を保証するために、メインコード更新と依存性生成を交互に行う。
このメカニズムにより、すべてのコードコンポーネントが同期化され、機能し、スケーラブルで効率的なプロジェクト生成を可能にする。
論文 参考訳(メタデータ) (2024-11-16T18:54:56Z) - LiNeS: Post-training Layer Scaling Prevents Forgetting and Enhances Model Merging [80.17238673443127]
LiNeSは、微調整タスク性能を向上しつつ、事前訓練された一般化を維持するために設計されたポストトレーニング編集技術である。
LiNeSは、視覚と自然言語処理のさまざまなベンチマークにおいて、シングルタスクとマルチタスクの両方で大幅に改善されている。
論文 参考訳(メタデータ) (2024-10-22T16:26:05Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - MOSS: Enabling Code-Driven Evolution and Context Management for AI Agents [7.4159044558995335]
動的コンテキスト管理システムとコード生成を統合する新しいフレームワークであるMOSS(llM-oriented Operating System Simulation)を紹介する。
フレームワークの中核は、最小限の知識原則を強制するために、インバージョン・オブ・コントロールコンテナとデコレータを併用する。
我々は,このフレームワークがエージェント開発における効率性と能力をいかに向上させるかを示し,チューリング完全エージェントへの移行におけるその優位性を強調した。
論文 参考訳(メタデータ) (2024-09-24T14:30:21Z) - Better Python Programming for all: With the focus on Maintainability [5.669063174637433]
本研究では,Large Language Models (LLM) が生成するコードの保守性向上を目的とした。
私たちのアプローチでは、モデルをトレーニングし、評価するために特別に設計されたデータセットを使用します。
LLMを微調整してコードの保守性を優先順位付けした後、我々の評価は、このモデルがコードの保守性標準を大幅に改善することを示している。
論文 参考訳(メタデータ) (2024-08-17T08:14:22Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - On the Impacts of Contexts on Repository-Level Code Generation [5.641402231731082]
本稿ではレポジトリレベルのコード生成を評価するために設計された新しいベンチマークであるRepoExecを紹介する。
実行可能性、包括的なテストケース生成による機能的正当性、ファイル間のコンテキストの正確な利用という3つの重要な側面に注目します。
論文 参考訳(メタデータ) (2024-06-17T10:45:22Z) - SOEN-101: Code Generation by Emulating Software Process Models Using Large Language Model Agents [50.82665351100067]
FlowGenは、複数のLarge Language Model (LLM)エージェントに基づいたソフトウェアプロセスモデルをエミュレートするコード生成フレームワークである。
FlowGenScrumをHumanEval、HumanEval-ET、MBPP、MBPP-ETの4つのベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-23T14:04:48Z) - MoTCoder: Elevating Large Language Models with Modular of Thought for Challenging Programming Tasks [50.61968901704187]
本稿では,タスクを論理的なサブタスクとサブモジュールに分解するためのMoT命令チューニングフレームワークを提案する。
調査の結果,MoTCoderはサブモジュールの栽培と利用を通じて,生成したソリューションのモジュラリティと正しさの両方を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-12-26T08:49:57Z) - ReCode: Robustness Evaluation of Code Generation Models [90.10436771217243]
コード生成モデルのための総合的ロバストネス評価ベンチマークであるReCodeを提案する。
ドクストリング、関数と変数名、コード構文、コードフォーマットのコードに特化して、30以上の変換をカスタマイズします。
ヒトのアノテータでは、摂動プロンプトの90%以上が本来のプロンプトの意味を変えていないことが確認された。
論文 参考訳(メタデータ) (2022-12-20T14:11:31Z) - COLD Decoding: Energy-based Constrained Text Generation with Langevin
Dynamics [69.8062252611486]
コールドデコーディングは、既製の左から右の言語モデルに直接適用可能なフレキシブルなフレームワークである。
制約付き生成タスクの実験は、自動評価と人的評価の両方の観点から、我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2022-02-23T18:59:27Z) - NeuroLogic A*esque Decoding: Constrained Text Generation with Lookahead
Heuristics [73.96837492216204]
本稿では,将来のコスト見積を組み込んだ復号アルゴリズムであるNeuroLogic A*esqueを提案する。
大規模言語モデルに効率的な効率的なルックアヘッドを開発する。
提案手法は,5世代タスクにおける競合的ベースラインと,テーブル・トゥ・テキスト生成,制約された機械翻訳,キーワード制約付き生成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-16T09:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。