論文の概要: Automated Code generation for Information Technology Tasks in YAML
through Large Language Models
- arxiv url: http://arxiv.org/abs/2305.02783v4
- Date: Tue, 23 May 2023 15:45:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 23:47:03.982943
- Title: Automated Code generation for Information Technology Tasks in YAML
through Large Language Models
- Title(参考訳): 大規模言語モデルによるYAMLの情報技術タスクの自動コード生成
- Authors: Saurabh Pujar, Luca Buratti, Xiaojie Guo, Nicolas Dupuis, Burn Lewis,
Sahil Suneja, Atin Sood, Ganesh Nalawade, Matthew Jones, Alessandro Morari,
Ruchir Puri
- Abstract要約: 私たちは、IT自動化の生産性向上を目的とした、自然言語のto-YAMLコード生成ツールであるWisdomを紹介します。
YAMLのための2つの新しいパフォーマンス指標を開発し、この領域の特徴を捉える。
- 参考スコア(独自算出の注目度): 56.25231445614503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent improvement in code generation capabilities due to the use of
large language models has mainly benefited general purpose programming
languages. Domain specific languages, such as the ones used for IT Automation,
have received far less attention, despite involving many active developers and
being an essential component of modern cloud platforms. This work focuses on
the generation of Ansible-YAML, a widely used markup language for IT
Automation. We present Ansible Wisdom, a natural-language to Ansible-YAML code
generation tool, aimed at improving IT automation productivity. Ansible Wisdom
is a transformer-based model, extended by training with a new dataset
containing Ansible-YAML. We also develop two novel performance metrics for YAML
and Ansible to capture the specific characteristics of this domain. Results
show that Ansible Wisdom can accurately generate Ansible script from natural
language prompts with performance comparable or better than existing state of
the art code generation models. In few-shot settings we asses the impact of
training with Ansible, YAML data and compare with different baselines including
Codex-Davinci-002. We also show that after finetuning, our Ansible specific
model (BLEU: 66.67) can outperform a much larger Codex-Davinci-002 (BLEU: 50.4)
model, which was evaluated in few shot settings.
- Abstract(参考訳): 大規模言語モデルの使用によるコード生成能力の最近の改善は、主に汎用プログラミング言語の恩恵を受けている。
ITオートメーションで使用されるようなドメイン固有言語は、多くのアクティブな開発者を巻き込み、現代のクラウドプラットフォームに不可欠なコンポーネントであるにもかかわらず、はるかに注目を集めている。
この作業は、ITオートメーションのための広く使われているマークアップ言語であるAnsible-YAMLの生成に焦点を当てている。
私たちは、IT自動化の生産性向上を目的とした、Ansible-YAMLコード生成ツールであるAnsible Wisdomを紹介します。
ansible wisdomはtransformerベースのモデルで、ansible-yamlを含む新しいデータセットでトレーニングによって拡張される。
また、YAMLとAnsibleの2つの新しいパフォーマンス指標を開発し、この領域の特徴を捉える。
その結果、Ansible Wisdomは、既存のアートコード生成モデルと同等かそれ以上のパフォーマンスで、自然言語プロンプトからAnsibleスクリプトを正確に生成できることがわかった。
わずかな設定で、Ansible、YAMLデータによるトレーニングの影響を評価し、Codex-Davinci-002など、さまざまなベースラインと比較します。
また、微調整後、我々のAnsible specific model (BLEU: 66.67) がはるかに大きなCodex-Davinci-002 (BLEU: 50.4) モデルより優れていることを示す。
関連論文リスト
- CMULAB: An Open-Source Framework for Training and Deployment of Natural Language Processing Models [59.91221728187576]
本稿では,NLPモデルのモデル展開と連続的なヒューマン・イン・ザ・ループの微調整を簡単にするオープンソースフレームワークであるCMU言語バックエンドを紹介する。
CMULABは、マルチ言語モデルのパワーを活用して、音声認識、OCR、翻訳、構文解析などの既存のツールを新しい言語に迅速に適応し、拡張することができる。
論文 参考訳(メタデータ) (2024-04-03T02:21:46Z) - Insights from the Usage of the Ansible Lightspeed Code Completion Service [2.6401871006820534]
LightspeedはIT自動化に特化した言語です。
Lightspeedサービスのためのコードと分析フレームワークは、他の人が利用できるようにされている。
N-Day ユーザ保持図を表示する最初のコード補完ツール。
論文 参考訳(メタデータ) (2024-02-27T11:57:28Z) - Multi-lingual Evaluation of Code Generation Models [82.7357812992118]
本稿では,MBXPとMultilingual HumanEval,MathQA-Xという,評価コード生成モデルに関する新しいベンチマークを提案する。
これらのデータセットは10以上のプログラミング言語をカバーする。
コード生成モデルの性能を多言語で評価することができる。
論文 参考訳(メタデータ) (2022-10-26T17:17:06Z) - Bidirectional Language Models Are Also Few-shot Learners [54.37445173284831]
SAP(Sequential Autoregressive Prompting)は,双方向モデルの高速化を実現する技術である。
SAPは質問応答と要約に有効であることを示す。
この結果から,より広範な言語モデルの創発的特性として,プロンプトに基づく学習が証明された。
論文 参考訳(メタデータ) (2022-09-29T01:35:57Z) - TALM: Tool Augmented Language Models [28.483609366116525]
トランスフォーマーベース言語モデル(LM)は、様々なタスクにまたがるスケールによるパフォーマンス向上を示す。
本稿では,ツール拡張言語モデル(Tool Augmented Language Models,TALM)を提案する。
TALMは知識量の多いQAタスクと単純なツールによる推論指向の数学タスクの両方に強い性能を示す。
論文 参考訳(メタデータ) (2022-05-24T17:58:13Z) - Goal-Oriented Script Construction [23.6227797113877]
目標指向のスクリプト構築タスクを提案し、モデルが与えられた目標を達成するための一連のステップを生成する。
wikiHowから収集した18言語をサポートする,最初の多言語スクリプト学習データセットの試験を行った。
論文 参考訳(メタデータ) (2021-07-28T06:39:31Z) - Automatic Code Generation using Pre-Trained Language Models [0.0]
学習済み言語モデルの上に構築されたPython言語におけるコード生成のためのエンドツーエンドの機械学習モデルを提案する。
本研究では,BLEUスコア0.22を達成し,適切なシーケンス・ツー・シーケンスベースラインよりも46%向上した,微調整モデルがコード生成タスクで良好に動作できることを実証する。
論文 参考訳(メタデータ) (2021-02-21T07:21:26Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Exploring Versatile Generative Language Model Via Parameter-Efficient
Transfer Learning [70.81910984985683]
本稿では,1つの大規模事前学習モデルを用いて,複数のダウンストリーム生成タスクを同時に微調整する効果的な方法を提案する。
5つの多様な言語生成タスクの実験は、各タスクに2-3%のパラメータを追加するだけで、モデル全体の微調整性能を維持または改善できることを示している。
論文 参考訳(メタデータ) (2020-04-08T06:18:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。