論文の概要: Designing LLM-based Multi-Agent Systems for Software Engineering Tasks: Quality Attributes, Design Patterns and Rationale
- arxiv url: http://arxiv.org/abs/2511.08475v1
- Date: Wed, 12 Nov 2025 02:00:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.831077
- Title: Designing LLM-based Multi-Agent Systems for Software Engineering Tasks: Quality Attributes, Design Patterns and Rationale
- Title(参考訳): ソフトウェアエンジニアリングタスクのためのLLMベースのマルチエージェントシステムの設計:品質属性、デザインパターン、ライナー
- Authors: Yangxiao Cai, Ruiyin Li, Peng Liang, Mojtaba Shahin, Zengyang Li,
- Abstract要約: マルチエージェントシステム(MAS)は、自律性とスケーラビリティのため、研究と実践の焦点として登場した。
ソフトウェア工学の分野におけるLarge Language Models (LLM) の適用は、ますます注目を集めている。
我々は,LLMをベースとしたSEタスクのMASが重視する品質属性(QA),MASで使用されるデザインパターン,MASの設計論理について検討した。
- 参考スコア(独自算出の注目度): 5.5221012118861195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the complexity of Software Engineering (SE) tasks continues to escalate, Multi-Agent Systems (MASs) have emerged as a focal point of research and practice due to their autonomy and scalability. Furthermore, through leveraging the reasoning and planning capabilities of Large Language Models (LLMs), the application of LLM-based MASs in the field of SE is garnering increasing attention. However, there is no dedicated study that systematically explores the design of LLM-based MASs, including the Quality Attributes (QAs) on which the designers mainly focus, the design patterns used by the designers, and the rationale guiding the design of LLM-based MASs for SE tasks. To this end, we conducted a study to identify the QAs that LLM-based MASs for SE tasks focus on, the design patterns used in the MASs, and the design rationale for the MASs. We collected 94 papers on LLM-based MASs for SE tasks as the source. Our study shows that: (1) Code Generation is the most common SE task solved by LLM-based MASs among ten identified SE tasks, (2) Functional Suitability is the QA on which designers of LLM-based MASs pay the most attention, (3) Role-Based Cooperation is the design pattern most frequently employed among 16 patterns used to construct LLM-based MASs, and (4) Improving the Quality of Generated Code is the most common rationale behind the design of LLM-based MASs. Based on the study results, we presented the implications for the design of LLM-based MASs to support SE tasks.
- Abstract(参考訳): ソフトウェア工学(SE)タスクの複雑さがエスカレートし続けている中、マルチエージェントシステム(MAS)は、自律性とスケーラビリティのために研究と実践の焦点として現れています。
さらに,Large Language Models (LLMs) の推論と計画能力を活用することで,SE分野における LLM ベースのMAS の適用が注目されている。
しかし, 設計者が主に重視する品質属性 (QA) や設計者が使用するデザインパターン, SEタスクのためのLCMベースのMASの設計を導く根拠など, LLMベースのMASの設計を体系的に探求する専門的な研究は存在しない。
そこで本研究では,LLMをベースとしたSEタスクのMASが重視するQA,MASで使用される設計パターン,MASの設計論理について検討した。
LLMに基づくSEタスクのためのMASに関する94の論文を資料として収集した。
本研究は,(1)コード生成がLLMベースMASで解決される最も一般的なSEタスクであり,(2)機能的適合性は,LLMベースMASの設計者が最も注目するQAであり,(3)ロールベース協力は,LLMベースMASを構築するために使用される16のパターンの中で最もよく使用されるデザインパターンであり,(4)生成コードの品質向上は,LLMベースMASの設計の背後にある最も一般的な根拠である。
研究結果に基づいて,本研究は,SEタスクをサポートするためのLLMベースのMASの設計に意味を提示した。
関連論文リスト
- On the Importance of Task Complexity in Evaluating LLM-Based Multi-Agent Systems [14.75237035960069]
大規模言語モデルマルチエージェントシステム(LLM-MAS)は、より高度なAI行動を達成するために集団知性を活用するための有望なパラダイムを提供する。
課題解決における LLM-MAS の有効性を評価するためには, シーケンシャル推論の程度や能力の幅など, タスク複雑性の原則的理解が不可欠である。
論文 参考訳(メタデータ) (2025-10-05T18:08:48Z) - MAS-ZERO: Designing Multi-Agent Systems with Zero Supervision [76.42361936804313]
自動MAS設計のための自己進化型推論時間フレームワークMAS-ZEROを紹介する。
MAS-ZEROはメタレベルの設計を採用し、各問題インスタンスに適したMAS構成を反復的に生成し、評価し、洗練する。
論文 参考訳(メタデータ) (2025-05-21T00:56:09Z) - Building LLM Agents by Incorporating Insights from Computer Systems [23.3629124649768]
計算機システムからの洞察を取り入れたLCMエージェントの構築を提唱する。
フォン・ノイマンアーキテクチャに着想を得て,LLMエージェントシステムのための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-06T13:38:37Z) - MAS-GPT: Training LLMs to Build LLM-based Multi-Agent Systems [43.41902313944615]
我々は、MASを生成言語タスクとして再定義することで、MASを構築するプロセスを簡単にする。
一貫性のあるクエリ-MASペアからなる高品質なデータセットを作成する。
生成されたMASは、ユーザクエリをシームレスに処理し、高品質なレスポンスを提供する。
論文 参考訳(メタデータ) (2025-03-05T17:27:59Z) - From LLMs to LLM-based Agents for Software Engineering: A Survey of Current, Challenges and Future [15.568939568441317]
本稿では,大規模言語モデル (LLM) と LLM をベースとしたソフトウェア工学エージェントの実践とソリューションについて検討する。
特に、要件エンジニアリング、コード生成、自律的な意思決定、ソフトウェア設計、テスト生成、ソフトウェアメンテナンスの6つの主要なトピックを要約します。
我々は、使用するモデルとベンチマークについて論じ、ソフトウェア工学におけるそれらの応用と有効性について包括的に分析する。
論文 参考訳(メタデータ) (2024-08-05T14:01:15Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Self-MoE: Towards Compositional Large Language Models with Self-Specialized Experts [49.950419707905944]
本稿では,モノリシックLLMを,自己専門化の専門家による構成的,モジュール的なシステムに変換するアプローチであるSelf-MoEを紹介する。
提案手法は, 自己生成合成データを用いて, 専門家モジュールを構成する自己特殊化を利用する。
本研究は, モジュール性の重要性, マルチベースLCMへの適用性, 効率的でスケーラブルで適応可能なシステムの実現における自己改善の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-06-17T19:06:54Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - Large Language Model Agent as a Mechanical Designer [7.136205674624813]
本研究では、FEMモジュールと協調して事前訓練された大規模言語モデル(LLM)を利用して、構造設計を自律的に生成、評価、洗練するフレームワークを提案する。
LLMはドメイン固有の微調整なしで動作し、設計候補を提案し、FEMから派生した性能指標を解釈し、構造的な音響修正を適用する。
NSGA-II (Non-Sorting Genetic Algorithm II) と比較して,本手法はより高速に収束し,より少ないFEM評価を実現する。
論文 参考訳(メタデータ) (2024-04-26T16:41:24Z) - An Embarrassingly Simple Approach for LLM with Strong ASR Capacity [56.30595787061546]
我々は,音声基礎エンコーダと大規模言語モデル(LLM)を用いて,音声処理の分野で最も重要な課題の1つを解決することに注力する。
最近の研究は、音声エンコーダの出力を時間的に圧縮したり、プロジェクタのモーダルアライメントに対処したり、LLMのパラメータ効率の良い微調整を利用するといった複雑な設計をしている。
そこで本研究では,市販の音声エンコーダLLMと,トレーニング可能な唯一の線形プロジェクタの単純な構成がASRタスクに適しているのに対して,繊細な設計は必要ないことを発見した。
論文 参考訳(メタデータ) (2024-02-13T23:25:04Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - A Survey of Large Language Models for Code: Evolution, Benchmarking, and
Future Trends [30.774685501251817]
一般的な大規模言語モデル(LLM)は、ソフトウェア工学におけるコード生成のようなタスクにおいて大きな可能性を証明している。
コードLLMのかなりの部分は、モデルファインチューニングを通じて一般的なLLMから派生している。
現在、Code LLMとそのパフォーマンスに関する体系的な調査が欠如している。
論文 参考訳(メタデータ) (2023-11-17T07:55:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。