論文の概要: Evaluating Classical Software Process Models as Coordination Mechanisms for LLM-Based Software Generation
- arxiv url: http://arxiv.org/abs/2509.13942v1
- Date: Wed, 17 Sep 2025 13:11:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.849035
- Title: Evaluating Classical Software Process Models as Coordination Mechanisms for LLM-Based Software Generation
- Title(参考訳): LLMベースのソフトウェア生成のための協調メカニズムとしての古典的ソフトウェアプロセスモデルの評価
- Authors: Duc Minh Ha, Phu Trac Kien, Tho Quan, Anh Nguyen-Duc,
- Abstract要約: 本研究では,Large Language Model (LLM) ベースのMASのための協調足場として,従来のソフトウェア開発プロセスをどのように適応させるかを検討する。
3つのプロセスモデルと4つのGPT変種の下で11の多様なソフトウェアプロジェクトを実行し、合計132回の実行を行いました。
プロセスモデルとLLMの選択はシステム性能に大きく影響した。
ウォーターフォールは最も効率的で、Vモデルが最も冗長なコードを生成し、アジャイルは最高のコード品質を達成しました。
- 参考スコア(独自算出の注目度): 4.583390874772685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: [Background] Large Language Model (LLM)-based multi-agent systems (MAS) are transforming software development by enabling autonomous collaboration. Classical software processes such asWaterfall, V-Model, and Agile offer structured coordination patterns that can be repurposed to guide these agent interactions. [Aims] This study explores how traditional software development processes can be adapted as coordination scaffolds for LLM based MAS and examines their impact on code quality, cost, and productivity. [Method] We executed 11 diverse software projects under three process models and four GPT variants, totaling 132 runs. Each output was evaluated using standardized metrics for size (files, LOC), cost (execution time, token usage), and quality (code smells, AI- and human detected bugs). [Results] Both process model and LLM choice significantly affected system performance. Waterfall was most efficient, V-Model produced the most verbose code, and Agile achieved the highest code quality, albeit at higher computational cost. [Conclusions] Classical software processes can be effectively instantiated in LLM-based MAS, but each entails trade-offs across quality, cost, and adaptability. Process selection should reflect project goals, whether prioritizing efficiency, robustness, or structured validation.
- Abstract(参考訳): [背景]大規模言語モデル(LLM)ベースのマルチエージェントシステム(MAS)は、自律的なコラボレーションを可能にすることでソフトウェア開発を変革している。
WaterfallやV-Model、アジャイルといった古典的なソフトウェアプロセスは、これらのエージェントのインタラクションをガイドするために再利用可能な構造化された調整パターンを提供します。
目的]本研究では,従来のソフトウェア開発プロセスをLCMベースのMASのコーディネート足場として適用し,コード品質,コスト,生産性に与える影響について検討する。
[方法]3つのプロセスモデルと4つのGPT変種の下で11の多様なソフトウェアプロジェクトを実行し、合計132回の実行を行いました。
各アウトプットは、サイズ(ファイル、LOC)、コスト(実行時間、トークン使用量)、品質(コードの臭い、AI、検出されたバグ)の標準化されたメトリクスを使用して評価された。
結果]プロセスモデルとLLMの選択の両方がシステムパフォーマンスに大きな影響を与えました。
ウォーターフォールは最も効率的で、V-Modelは最も冗長なコードを作り、アジャイルは高い計算コストで最高のコード品質を達成しました。
結論] 古典的なソフトウェアプロセスは LLM ベースの MAS で効果的にインスタンス化できますが,それぞれが品質,コスト,適応性といったトレードオフを伴います。
プロセスの選択は、効率の優先順位付け、堅牢性、構造化された検証など、プロジェクトの目標を反映するべきです。
関連論文リスト
- MAS-ZERO: Designing Multi-Agent Systems with Zero Supervision [76.42361936804313]
自動MAS設計のための自己進化型推論時間フレームワークMAS-ZEROを紹介する。
MAS-ZEROはメタレベルの設計を採用し、各問題インスタンスに適したMAS構成を反復的に生成し、評価し、洗練する。
論文 参考訳(メタデータ) (2025-05-21T00:56:09Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - ORLM: A Customizable Framework in Training Large Models for Automated Optimization Modeling [15.67321902882617]
本稿では,オープンソースのLLMをトレーニングし,モデリングやソルバコードの開発を最適化する実行可能なパスを提案する。
この研究は、実用的なOR問題の解決においてLLMを評価するための最初の産業ベンチマークであるIndustrialORも導入した。
論文 参考訳(メタデータ) (2024-05-28T01:55:35Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - SOEN-101: Code Generation by Emulating Software Process Models Using Large Language Model Agents [50.82665351100067]
FlowGenは、複数のLarge Language Model (LLM)エージェントに基づいたソフトウェアプロセスモデルをエミュレートするコード生成フレームワークである。
FlowGenScrumをHumanEval、HumanEval-ET、MBPP、MBPP-ETの4つのベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-23T14:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。