論文の概要: IaC Generation with LLMs: An Error Taxonomy and A Study on Configuration Knowledge Injection
- arxiv url: http://arxiv.org/abs/2512.14792v1
- Date: Tue, 16 Dec 2025 14:58:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.7399
- Title: IaC Generation with LLMs: An Error Taxonomy and A Study on Configuration Knowledge Injection
- Title(参考訳): LLMを用いたIaC生成:誤り分類法と構成知識注入に関する研究
- Authors: Roman Nekrasov, Stefano Fossati, Indika Kumara, Damian Andrew Tamburri, Willem-Jan van den Heuvel,
- Abstract要約: 大規模言語モデル(LLM)は、現在、正しい意図に沿ったインフラストラクチャ・アズ・コード(IaC)を生成する上で、低い成功率を示している。
本研究では, LLM を用いた IaC 生成法, 特にTerraform について検討した。
- 参考スコア(独自算出の注目度): 1.565249083928955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) currently exhibit low success rates in generating correct and intent-aligned Infrastructure as Code (IaC). This research investigated methods to improve LLM-based IaC generation, specifically for Terraform, by systematically injecting structured configuration knowledge. To facilitate this, an existing IaC-Eval benchmark was significantly enhanced with cloud emulation and automated error analysis. Additionally, a novel error taxonomy for LLM-assisted IaC code generation was developed. A series of knowledge injection techniques was implemented and evaluated, progressing from Naive Retrieval-Augmented Generation (RAG) to more sophisticated Graph RAG approaches. These included semantic enrichment of graph components and modeling inter-resource dependencies. Experimental results demonstrated that while baseline LLM performance was poor (27.1% overall success), injecting structured configuration knowledge increased technical validation success to 75.3% and overall success to 62.6%. Despite these gains in technical correctness, intent alignment plateaued, revealing a "Correctness-Congruence Gap" where LLMs can become proficient "coders" but remain limited "architects" in fulfilling nuanced user intent.
- Abstract(参考訳): 大規模言語モデル(LLM)は、現在、正しい意図に沿ったインフラストラクチャ・アズ・コード(IaC)を生成する上で、低い成功率を示している。
本研究では,構造化構成知識を体系的に注入することで,LSMベースのIaC生成,特にTerraformを改善する方法を検討した。
これを容易にするために、クラウドエミュレーションと自動エラー解析によって既存のIaC-Evalベンチマークが大幅に強化された。
さらに,LLM支援IaC符号生成のための新しい誤り分類法を開発した。
一連の知識注入技術が実装され評価され、より洗練されたグラフRAGアプローチへと進化した。
これには、グラフコンポーネントのセマンティックエンリッチメントや、リソース間の依存関係のモデリングが含まれる。
実験の結果、LLMのベースライン性能は低かったが(全体的な成功率は27.1%)、構造化された構成知識を注入することで技術検証の成功は75.3%、全体的な成功は62.6%に増加した。
これらの技術的正しさの上昇にもかかわらず、意図のアライメントは高められ、LLMが熟練した"コーダ"になるが、ニュアンスなユーザ意図を達成する上では限定的な"アーキテクチャ"のままである"コレクトネス=コングルエンスギャップ"が明らかになった。
関連論文リスト
- Understanding and Mitigating Errors of LLM-Generated RTL Code [7.747889860813149]
大規模言語モデル (LLM) ベースのレジスタ転送レベル (RTL) コード生成は有望であるが、全体的な成功率は相変わらず不満足である。
包括的なエラー解析と手動分類を行う。
その結果、ほとんどのエラーはRTLプログラミングの知識不足、回路概念の理解不足、複雑なマルチモーダル入力の誤解釈によるものであることが判明した。
論文 参考訳(メタデータ) (2025-08-07T11:02:32Z) - Ontology-Enhanced Knowledge Graph Completion using Large Language Models [14.954155147351623]
大言語モデル(LLM)は知識グラフ補完(KGC)において広く採用されている。
OL-KGCを用いた拡張KGC法を提案する。
まず、神経知覚機構を利用して、構造情報をテキスト空間に効果的に埋め込む。
論文 参考訳(メタデータ) (2025-07-28T09:00:48Z) - SAFT: Structure-Aware Fine-Tuning of LLMs for AMR-to-Text Generation [50.277959544420455]
SAFTは、事前訓練された言語モデルにグラフトポロジーを注入する構造対応の微調整手法である。
変換されたAMRの磁気ラプラシアンから方向感応的な位置エンコーディングを計算する。
SAFTはAMR 3.0に新しい最先端を設定、ベースラインを3.5BLEU改善した。
論文 参考訳(メタデータ) (2025-07-15T18:12:57Z) - LLM-Guided Evolution: An Autonomous Model Optimization for Object Detection [0.0]
機械学習では、ニューラルネットワークサーチ(NAS)はモデル設計のドメイン知識と、有望なパフォーマンスを達成するために大量の試行錯誤を必要とする。
Large Language Model (LLM)-Guided Evolution (GE)フレームワークは、CIFARデータ上の画像分類アルゴリズムのモデルソースコードを直接修正するためにLLMを組み込むことによって、このアプローチを変革した。
LLM-GEは平均平均精度を92.5%から94.5%に向上させるなど,大幅な性能向上を図った。
論文 参考訳(メタデータ) (2025-04-03T05:06:06Z) - Mitigating Forgetting in LLM Fine-Tuning via Low-Perplexity Token Learning [65.23593936798662]
LLM生成データによる微調整により,目標タスクの性能が向上し,非目標タスクの劣化が低減されることを示す。
微調整後のLSMにおける破滅的忘れを緩和するために、トークンの難易度低減に基づく経験的説明を提供する最初の研究である。
論文 参考訳(メタデータ) (2025-01-24T08:18:56Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。