論文の概要: LLM and Infrastructure as a Code use case
- arxiv url: http://arxiv.org/abs/2309.01456v2
- Date: Thu, 2 Nov 2023 09:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 16:57:12.457623
- Title: LLM and Infrastructure as a Code use case
- Title(参考訳): コードユースケースとしてのLLMとインフラストラクチャ
- Authors: Thibault Chanus (ENS Rennes), Michael Aubertin
- Abstract要約: ドキュメントはYAMLロールとプレイブックの生成と管理のためのソリューションについて調査する。
当社の取り組みは、有効な方向を特定し、潜在的な応用を概説することに集中しています。
この実験のために、我々はLightspeedの使用に反対した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloud computing and the evolution of management methodologies such as Lean
Management or Agile entail a profound transformation in both system
construction and maintenance approaches. These practices are encompassed within
the term "DevOps." This descriptive approach to an information system or
application, alongside the configuration of its constituent components, has
necessitated the development of descriptive languages paired with specialized
engines for automating systems administration tasks. Among these, the tandem of
Ansible (engine) and YAML (descriptive language) stands out as the two most
prevalent tools in the market, facing notable competition mainly from
Terraform. The current document presents an inquiry into a solution for
generating and managing Ansible YAML roles and playbooks, utilizing Generative
LLMs (Language Models) to translate human descriptions into code. Our efforts
are focused on identifying plausible directions and outlining the potential
industrial applications. Note: For the purpose of this experiment, we have
opted against the use of Ansible Lightspeed. This is due to its reliance on an
IBM Watson model, for which we have not found any publicly available
references. Comprehensive information regarding this remarkable technology can
be found [1] directly on our partner's website, RedHat.
- Abstract(参考訳): クラウドコンピューティングとリーンマネジメントやアジャイルといったマネジメント方法論の進化は、システムの構築とメンテナンスの両方のアプローチに大きな変革をもたらします。
これらのプラクティスは“DevOps”という用語に包含されている。
この情報システムやアプリケーションへの記述的アプローチは、コンポーネントの構成とともに、システム管理タスクを自動化する特別なエンジンと組み合わせた記述言語の開発を必要としている。
その中で、Ansible(エンジン)とYAML(記述言語)という2つのタンデムが、Terraformとの大きな競合相手として、市場でもっとも一般的なツールとして際立っている。
現在の文書では、人間の記述をコードに変換するためにジェネレーティブLLM(Language Models)を利用して、Ansible YAMLロールとプレイブックの生成と管理のソリューションについて調査を行っている。
私たちの取り組みは、妥当な方向を特定し、潜在的な産業応用を概説することに集中しています。
注: この実験のために、我々はAnsible Lightspeedの使用に反対しました。
これは、IBM Watsonモデルに依存しているためです。
この素晴らしい技術に関する包括的な情報は、パートナのWebサイトであるRedHatで直接参照できます。
関連論文リスト
- Ansible Lightspeed: A Code Generation Service for IT Automation [2.7725811854847717]
IT自動化に不可欠なようなドメイン固有言語はあまり注目されていません。
本稿では,ドメイン固有言語において,比較的小さな専用モデルがどのように機能するかを考察する。
論文 参考訳(メタデータ) (2024-02-27T11:57:28Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - TaskWeaver: A Code-First Agent Framework [51.78992527355425]
TaskWeaverは、LLMで動く自律エージェントを構築するためのコードファーストフレームワークである。
ユーザ要求を実行可能なコードに変換し、ユーザ定義プラグインを呼び出し可能な関数として扱う。
リッチなデータ構造、フレキシブルなプラグイン利用、動的プラグイン選択のサポートを提供する。
論文 参考訳(メタデータ) (2023-11-29T11:23:42Z) - Prompting Frameworks for Large Language Models: A Survey [22.770904267189586]
大規模言語モデル(LLM)は、学術と産業の両方で大きな進歩を遂げた。
Prompting Framework(PF)は、大規模言語モデルとの相互作用を管理し、単純化し、促進するフレームワークである。
論文 参考訳(メタデータ) (2023-11-21T18:51:03Z) - RedCoast: A Lightweight Tool to Automate Distributed Training of LLMs on
Any GPU/TPUs [33.39013733151192]
大規模言語モデル(LLM)の分散トレーニングと推論を自動化するツールであるRedCoastを紹介する。
また,3つの関数の定義により,多様なMLパイプラインをカスタマイズする機構を提案する。
論文 参考訳(メタデータ) (2023-10-25T04:32:35Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Natural Language based Context Modeling and Reasoning for Ubiquitous
Computing with Large Language Models: A Tutorial [35.743576799998564]
大規模言語モデル(LLM)は、コンテキスト対応コンピューティングを導入してから20年が経ち、2018年以来、驚くほど急増している。
本チュートリアルでは,テキスト,プロンプト,自律エージェント(AutoAgents)の使用を実演し,LLMが文脈モデリングや推論を行うことを可能にする。
論文 参考訳(メタデータ) (2023-09-24T00:15:39Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z) - MLOps: A Step Forward to Enterprise Machine Learning [0.0]
この研究は、MLOps、そのメリット、困難、進化、および重要な基盤技術に関する詳細なレビューを提示する。
MLOpsワークフローは、モデルとデータ探索とデプロイメントの両方に必要なさまざまなツールとともに、詳細に説明されている。
この記事では、さまざまな成熟度の高い自動パイプラインを使用して、MLプロジェクトのエンドツーエンド生産にも光を当てます。
論文 参考訳(メタデータ) (2023-05-27T20:44:14Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。