論文の概要: Collaborative LLM Agents for C4 Software Architecture Design Automation
- arxiv url: http://arxiv.org/abs/2510.22787v1
- Date: Sun, 26 Oct 2025 18:43:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.368116
- Title: Collaborative LLM Agents for C4 Software Architecture Design Automation
- Title(参考訳): C4ソフトウェアアーキテクチャ設計自動化のための協調LLMエージェント
- Authors: Kamil Szczepanik, Jarosław A. Chudziak,
- Abstract要約: 本研究は,ソフトウェアアーキテクチャの自動設計とその評価手法に寄与する。
我々は,C4ソフトウェアアーキテクチャモデルを自動生成するLLMベースのマルチエージェントシステムを提案する。
5つの標準的なシステムブリーフでテストされたこのワークフローは、高速なC4モデル生成、高いコンパイル成功の維持、セマンティック忠実性の提供を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software architecture design is a fundamental part of creating every software system. Despite its importance, producing a C4 software architecture model, the preferred notation for such architecture, remains manual and time-consuming. We introduce an LLM-based multi-agent system that automates this task by simulating a dialogue between role-specific experts who analyze requirements and generate the Context, Container, and Component views of the C4 model. Quality is assessed with a hybrid evaluation framework: deterministic checks for structural and syntactic integrity and C4 rule consistency, plus semantic and qualitative scoring via an LLM-as-a-Judge approach. Tested on five canonical system briefs, the workflow demonstrates fast C4 model creation, sustains high compilation success, and delivers semantic fidelity. A comparison of four state-of-the-art LLMs shows different strengths relevant to architectural design. This study contributes to automated software architecture design and its evaluation methods.
- Abstract(参考訳): ソフトウェアアーキテクチャ設計は、すべてのソフトウェアシステムを作成する基本的な部分である。
C4ソフトウェアアーキテクチャモデルの重要性にもかかわらず、そのようなアーキテクチャに好まれる表記法は手作業と時間を要するままである。
要求を分析し,C4モデルのコンテキスト,コンテナ,コンポーネントビューを生成するロール固有の専門家間の対話をシミュレートすることで,このタスクを自動化するLLMベースのマルチエージェントシステムを導入する。
構造的および統語的整合性の決定論的チェックとC4規則の整合性、LLM-as-a-Judgeアプローチによる意味的および質的なスコアリングである。
5つの標準的なシステムブリーフでテストされたこのワークフローは、高速なC4モデル生成、高いコンパイル成功の維持、セマンティック忠実性の提供を実証する。
最先端の4つのLCMを比較すると、アーキテクチャ設計に関連する強度が異なることが分かる。
本研究は,ソフトウェアアーキテクチャの自動設計とその評価方法に寄与する。
関連論文リスト
- Evaluating Classical Software Process Models as Coordination Mechanisms for LLM-Based Software Generation [4.583390874772685]
本研究では,Large Language Model (LLM) ベースのMASのための協調足場として,従来のソフトウェア開発プロセスをどのように適応させるかを検討する。
3つのプロセスモデルと4つのGPT変種の下で11の多様なソフトウェアプロジェクトを実行し、合計132回の実行を行いました。
プロセスモデルとLLMの選択はシステム性能に大きく影響した。
ウォーターフォールは最も効率的で、Vモデルが最も冗長なコードを生成し、アジャイルは最高のコード品質を達成しました。
論文 参考訳(メタデータ) (2025-09-17T13:11:49Z) - Rethinking Testing for LLM Applications: Characteristics, Challenges, and a Lightweight Interaction Protocol [83.83217247686402]
大言語モデル(LLM)は、単純なテキストジェネレータから、検索強化、ツール呼び出し、マルチターンインタラクションを統合する複雑なソフトウェアシステムへと進化してきた。
その固有の非決定主義、ダイナミズム、文脈依存は品質保証に根本的な課題をもたらす。
本稿では,LLMアプリケーションを3層アーキテクチャに分解する: textbftextitSystem Shell Layer, textbftextitPrompt Orchestration Layer, textbftextitLLM Inference Core。
論文 参考訳(メタデータ) (2025-08-28T13:00:28Z) - MCP-Universe: Benchmarking Large Language Models with Real-World Model Context Protocol Servers [86.00932417210477]
MCP-Universeは,実世界のMPPサーバとのインタラクションを通じて,現実的かつ困難なタスクにおいてLLMを評価するために設計された,初めての総合ベンチマークである。
私たちのベンチマークでは、ロケーションナビゲーション、リポジトリ管理、財務分析、3Dデザイン、ブラウザ自動化、Web検索という、11の異なるMSPサーバにまたがる6つのコアドメインを網羅しています。
GPT-5 (43.72%) やGrok-4 (33.33%) やClaude-4.0-Sonnet (29.44%) のようなSOTAモデルでさえ、大幅な性能制限がある。
論文 参考訳(メタデータ) (2025-08-20T13:28:58Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - MAAD: Automate Software Architecture Design through Knowledge-Driven Multi-Agent Collaboration [20.14573932063689]
アーキテクチャ設計に知識駆動型マルチエージェントシステム(MAS)を利用する自動フレームワークであるMAAD(Multi-Agent Architecture Design)を提案する。
MAADは、要求仕様を協調的に解釈し、アーキテクチャの青写真を作成するために、4つの特殊エージェント(アナリスト、モデル、設計者、評価者)を編成する。
以上の結果から,MAADの優位性は,総合的なアーキテクチャコンポーネントの生成と,洞察に富んだ構造化されたアーキテクチャ評価レポートの提供にあることが示された。
論文 参考訳(メタデータ) (2025-07-28T23:18:25Z) - Bench4KE: Benchmarking Automated Competency Question Generation [1.2512982702508668]
Bench4KEは知識エンジニアリング自動化のためのAPIベースのベンチマークシステムである。
実世界の4つのオントロジープロジェクトのCQデータセットからなるキュレートされたゴールド標準を提供する。
これは、生成されたCQの品質を評価するために、一連の類似度メトリクスを使用する。
論文 参考訳(メタデータ) (2025-05-30T13:03:42Z) - SCAN: Structured Capability Assessment and Navigation for LLMs [54.54085382131134]
textbfSCAN (Structured Capability Assessment and Navigation) は、大規模言語モデルの詳細な特徴付けを可能にする実用的なフレームワークである。
SCANには4つの重要なコンポーネントが含まれている。
TaxBuilder – クエリから機能表示タグを抽出して階層的な分類構造を構築する。
RealMixは、各機能タグに対する十分な評価データを保証するクエリ合成とフィルタリングのメカニズムである。
PC$2$ベースのLCM-as-a-Judge法は従来のLCM-as-a-Judge法と比較して大幅に精度が向上する
論文 参考訳(メタデータ) (2025-05-10T16:52:40Z) - A quantitative framework for evaluating architectural patterns in ML systems [49.1574468325115]
本研究では,MLシステムにおけるアーキテクチャパターンの定量的評価のための枠組みを提案する。
コスト効率のよいCPUベースの推論のためのスケーラビリティとパフォーマンスメトリクスに注目します。
論文 参考訳(メタデータ) (2025-01-20T15:30:09Z) - Automatic Evaluation for Text-to-image Generation: Task-decomposed Framework, Distilled Training, and Meta-evaluation Benchmark [62.58869921806019]
GPT-4oに基づくタスク分解評価フレームワークを提案し、新しいトレーニングデータセットを自動構築する。
我々は、GPT-4oの評価能力を7BオープンソースMLLM、MiniCPM-V-2.6に効果的に蒸留するための革新的なトレーニング戦略を設計する。
実験結果から,我々の蒸留したオープンソースMLLMは,現在のGPT-4oベースラインよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-11-23T08:06:06Z) - From Requirements to Architecture: An AI-Based Journey to
Semi-Automatically Generate Software Architectures [2.4150871564195007]
本稿では,人工知能技術を用いた要件に基づくソフトウェアアーキテクチャ候補生成手法を提案する。
さらに、生成したアーキテクチャ候補の自動評価とトレードオフ分析を計画する。
論文 参考訳(メタデータ) (2024-01-25T10:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。