論文の概要: Multi-Agent Code-Orchestrated Generation for Reliable Infrastructure-as-Code
- arxiv url: http://arxiv.org/abs/2510.03902v1
- Date: Sat, 04 Oct 2025 18:55:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.330698
- Title: Multi-Agent Code-Orchestrated Generation for Reliable Infrastructure-as-Code
- Title(参考訳): 信頼性の高いインフラストラクチャ・アズ・コードのためのマルチエージェントコードオーケストレーション生成
- Authors: Rana Nameer Hussain Khan, Dawood Wasif, Jin-Hee Cho, Ali Butt,
- Abstract要約: 大規模言語モデル(LLM)は、自然言語プロンプトからインフラストラクチャ・アズ・コードスニペットを生成することを約束している。
IaC 生成のための新しいマルチエージェント LLM アーキテクチャである MACOG (Multi-Agent Code-Orchestrated Generation) を提案する。
エージェントは共有ブラックボード、有限状態オーケストレータ層を介して対話し、Terraform構成を集合的に生成する。
- 参考スコア(独自算出の注目度): 3.483439377981986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing complexity of cloud-native infrastructure has made Infrastructure-as-Code (IaC) essential for reproducible and scalable deployments. While large language models (LLMs) have shown promise in generating IaC snippets from natural language prompts, their monolithic, single-pass generation approach often results in syntactic errors, policy violations, and unscalable designs. In this paper, we propose MACOG (Multi-Agent Code-Orchestrated Generation), a novel multi-agent LLM-based architecture for IaC generation that decomposes the task into modular subtasks handled by specialized agents: Architect, Provider Harmonizer, Engineer, Reviewer, Security Prover, Cost and Capacity Planner, DevOps, and Memory Curator. The agents interact via a shared-blackboard, finite-state orchestrator layer, and collectively produce Terraform configurations that are not only syntactically valid but also policy-compliant and semantically coherent. To ensure infrastructure correctness and governance, we incorporate Terraform Plan for execution validation and Open Policy Agent (OPA) for customizable policy enforcement. We evaluate MACOG using the IaC-Eval benchmark, where MACOG is the top enhancement across models, e.g., GPT-5 improves from 54.90 (RAG) to 74.02 and Gemini-2.5 Pro from 43.56 to 60.13, with concurrent gains on BLEU, CodeBERTScore, and an LLM-judge metric. Ablations show constrained decoding and deploy feedback are critical: removing them drops IaC-Eval to 64.89 and 56.93, respectively.
- Abstract(参考訳): クラウドネイティブインフラストラクチャの複雑さの増大により、再現性とスケーラブルなデプロイメントには、インフラストラクチャ・アズ・コード(Infrastructure-as-Code, IaC)が不可欠になった。
大規模言語モデル(LLM)は、自然言語のプロンプトからIaCスニペットを生成することを約束しているが、モノリシックでシングルパス生成のアプローチは、しばしば構文エラー、ポリシー違反、計算不能な設計をもたらす。
本稿では,MACOG(Multi-Agent Code-Orchestrated Generation)を提案する。これはIaC生成のための新しいマルチエージェントLCMベースのアーキテクチャで,タスクを,アーキテクト,プロバイダハーモナイザ,エンジニア,レビューア,セキュリティプロバー,コストとキャパシティプランナ,DevOps,メモリキュレーターといった特殊なエージェントによって処理されるモジュールサブタスクに分解する。
エージェントは共有ブラックボード、有限状態オーケストレータ層を介して相互作用し、構文的に有効であるだけでなく、ポリシーに準拠し、セマンティックに一貫性のあるTerraform構成を集合的に生成する。
インフラストラクチャの正しさとガバナンスを保証するため、Terraform Planを実行検証に、Open Policy Agent(OPA)をカスタマイズ可能なポリシ実施に使用しています。
IaC-Evalベンチマークを用いてMACOGの評価を行い、例えば、GPT-5は54.90(RAG)から74.02に改善され、Gemini-2.5 Proは43.56から60.13に改善され、BLEU、CodeBERTScore、LLM-judge測定が同時に向上した。
アブレーションでは、制限されたデコードとデプロイのフィードバックが重要であり、それぞれIaC-Evalを64.89と56.93に落としている。
関連論文リスト
- Anemoi: A Semi-Centralized Multi-agent System Based on Agent-to-Agent Communication MCP server from Coral Protocol [0.7288110873705294]
Anemoi は、Coral Protocol の Agent-to-Agent (A2A) 通信 MCP サーバ上に構築された、半集中型の MAS である。
従来のデザインとは異なり、Anemoiは構造的かつ直接的なエージェント間コラボレーションを可能にし、すべてのエージェントが進捗を監視し、結果を評価し、ボトルネックを特定し、リアルタイムに改善を提案する。
論文 参考訳(メタデータ) (2025-08-23T15:45:10Z) - MCPEval: Automatic MCP-based Deep Evaluation for AI Agent Models [76.72220653705679]
我々は、エンドツーエンドタスク生成とインテリジェントエージェントの深い評価を自動化するオープンソースのフレームワークであるMCPEvalを紹介する。
MCPEvalはメトリクスを標準化し、ネイティブエージェントツールとシームレスに統合し、評価パイプラインを構築するための手作業を排除する。
実世界の5つのドメインにまたがる実証的な結果から、ニュアンスのある、ドメイン固有のパフォーマンスを明らかにする効果が示された。
論文 参考訳(メタデータ) (2025-07-17T05:46:27Z) - ARPaCCino: An Agentic-RAG for Policy as Code Compliance [0.18472148461613155]
ARPaCCinoは、Large Language Models、Retrieval-Augmented-Generation、ツールベースのバリデーションを組み合わせたエージェントシステムである。
公式なRegoルールを生成し、IaC準拠を評価し、IaC設定を反復的に洗練し、適合性を保証する。
本研究では,PACの自動化,信頼性,アクセシビリティを高めるために,エージェントRAGアーキテクチャの可能性を強調した。
論文 参考訳(メタデータ) (2025-07-11T12:36:33Z) - CodeAgents: A Token-Efficient Framework for Codified Multi-Agent Reasoning in LLMs [16.234259194402163]
マルチエージェント推論を符号化し、マルチエージェントシステムにおける構造化されたトークン効率の計画を可能にするプロンプトフレームワークであるCodeAgentsを紹介する。
その結果, 計画性能は一貫した改善がみられ, 基本となる自然言語よりも3~36ポイントの絶対的な向上が見られた。
論文 参考訳(メタデータ) (2025-07-04T02:20:19Z) - AGENTIF: Benchmarking Instruction Following of Large Language Models in Agentic Scenarios [51.46347732659174]
LLM(Large Language Models)は、現実世界のエージェントアプリケーションにおいて高度な機能を示す。
AgentIFは、エージェントシナリオでLLM命令に従う能力を体系的に評価する最初のベンチマークである。
論文 参考訳(メタデータ) (2025-05-22T17:31:10Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - LLM as a code generator in Agile Model Driven Development [0.032771631221674334]
この研究は、これらの課題を克服するための実行可能な戦略としてモデル駆動開発(MDD)を擁護します。
我々は GPT4 をコードジェネレータとして利用する Agile Model Driven Development (AMDD) アプローチを提案する。
GPT4自動生成機能を適用すると、JADEおよびPADEフレームワークと互換性のあるJavaとPythonコードが生成される。
論文 参考訳(メタデータ) (2024-10-24T07:24:11Z) - SOEN-101: Code Generation by Emulating Software Process Models Using Large Language Model Agents [50.82665351100067]
FlowGenは、複数のLarge Language Model (LLM)エージェントに基づいたソフトウェアプロセスモデルをエミュレートするコード生成フレームワークである。
FlowGenScrumをHumanEval、HumanEval-ET、MBPP、MBPP-ETの4つのベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-23T14:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。