論文の概要: A Survey of using Large Language Models for Generating Infrastructure as Code
- arxiv url: http://arxiv.org/abs/2404.00227v1
- Date: Sat, 30 Mar 2024 02:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 06:36:22.079684
- Title: A Survey of using Large Language Models for Generating Infrastructure as Code
- Title(参考訳): インフラストラクチャをコードとして生成する大規模言語モデルの利用に関する調査
- Authors: Kalahasti Ganesh Srivatsa, Sabyasachi Mukhopadhyay, Ganesh Katrapati, Manish Shrivastava,
- Abstract要約: インフラストラクチャ・アズ・コード(Infrastructure as Code, IaC)は、業界で注目されている革新的なアプローチです。
この問題に対処するために,Large Language Models (LLM) の適用可能性について検討する。
- 参考スコア(独自算出の注目度): 3.514825979961616
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Infrastructure as Code (IaC) is a revolutionary approach which has gained significant prominence in the Industry. IaC manages and provisions IT infrastructure using machine-readable code by enabling automation, consistency across the environments, reproducibility, version control, error reduction and enhancement in scalability. However, IaC orchestration is often a painstaking effort which requires specialised skills as well as a lot of manual effort. Automation of IaC is a necessity in the present conditions of the Industry and in this survey, we study the feasibility of applying Large Language Models (LLM) to address this problem. LLMs are large neural network-based models which have demonstrated significant language processing abilities and shown to be capable of following a range of instructions within a broad scope. Recently, they have also been adapted for code understanding and generation tasks successfully, which makes them a promising choice for the automatic generation of IaC configurations. In this survey, we delve into the details of IaC, usage of IaC in different platforms, their challenges, LLMs in terms of code-generation aspects and the importance of LLMs in IaC along with our own experiments. Finally, we conclude by presenting the challenges in this area and highlighting the scope for future research.
- Abstract(参考訳): インフラストラクチャ・アズ・コード(Infrastructure as Code, IaC)は革命的なアプローチであり、業界で大きな注目を集めています。
IaCは、自動化、環境間の一貫性、再現性、バージョン管理、エラーの低減、スケーラビリティの向上を可能にすることで、マシン可読コードを使用してITインフラストラクチャを管理し、プロビジョニングする。
しかし、IaCオーケストレーションは多くの場合、特別なスキルと多くの手作業を必要とする面倒な作業です。
IaCの自動化は産業の現在の状況において必要であり、本調査では、この問題に対処するためのLarge Language Models (LLM)の適用可能性について検討する。
LLMは、大きなニューラルネットワークベースのモデルであり、言語処理能力を示し、幅広い範囲で幅広い命令に従うことができることを示している。
最近では、コード理解および生成タスクにもうまく適応しており、IaC設定の自動生成には有望な選択となっている。
この調査では、IaCの詳細、異なるプラットフォームでのIaCの利用、それらの課題、コード生成の側面におけるLLM、IaCにおけるLLMの重要性、そして我々の実験について調べる。
最後に、この領域における課題を提示し、今後の研究のスコープを強調して結論を下す。
関連論文リスト
- Affective Computing in the Era of Large Language Models: A Survey from the NLP Perspective [23.70694831043923]
Affective Computing (AC)は、マシンが人間の感情を認識し、解釈し、シミュレートできるようにすることを目的としている。
ACには、Affective Understanding(AU)とAffective Generation(AG)の2つの主要なタスクが含まれている。
論文 参考訳(メタデータ) (2024-07-30T08:12:04Z) - LIVE: Learnable In-Context Vector for Visual Question Answering [37.89141789981324]
In-Context Learning (ICL) 機能を備えたLMM(Large Multimodal Models) を開発した。
ICLの適用は通常、2つの大きな課題に直面している。1) より多くのICDを使用すると、推論時間が大きく増加し、2) 性能はICDの選択に敏感になる。
実演からタスク情報を抽出するLearning In-Context VEctor (LIVE)を提案する。
論文 参考訳(メタデータ) (2024-06-19T03:33:45Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Large Language Models for Networking: Workflow, Advances and Challenges [19.104593453342304]
ネットワークの分野は、その複雑さと迅速な反復によって特徴づけられる。
従来の機械学習ベースの手法は、ネットワークにおける複雑なタスクの一般化と自動化に苦慮している。
近年の大規模言語モデル(LLM)の出現は、これらの課題に対処する新たな可能性の波を引き起こしている。
論文 参考訳(メタデータ) (2024-04-19T14:17:02Z) - An Empirical Study of Automated Vulnerability Localization with Large Language Models [21.84971967029474]
大規模言語モデル(LLM)は、様々な領域において可能性を示しているが、脆弱性のローカライゼーションにおけるその有効性は未解明のままである。
本調査では,ChatGPTや各種オープンソースモデルなど,コード解析に適した10以上のLLMを対象とする。
ゼロショット学習,ワンショット学習,識別的微調整,生成的微調整の4つのパラダイムを用いて,これらのLCMの有効性を検討する。
論文 参考訳(メタデータ) (2024-03-30T08:42:10Z) - The Landscape and Challenges of HPC Research and LLMs [12.57518012358534]
大規模言語モデル(LLM)はディープラーニングの分野に革命をもたらした。
エンコーダデコーダモデルとプロンプトベースのテクニックは、自然言語処理とコードベースのタスクにとって大きな可能性を示している。
論文 参考訳(メタデータ) (2024-02-03T04:21:07Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。