論文の概要: Generating Examples From CLI Usage: Can Transformers Help?
- arxiv url: http://arxiv.org/abs/2204.12648v1
- Date: Wed, 27 Apr 2022 01:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 00:02:48.952144
- Title: Generating Examples From CLI Usage: Can Transformers Help?
- Title(参考訳): CLI使用例の生成: トランスフォーマーは役に立つか?
- Authors: Roshanak Zilouchian Moghaddam, Spandan Garg, Colin B. Clement, Yevhen
Mohylevskyy, Neel Sundaresan
- Abstract要約: 本稿では,大規模テレメトリデータと文書コーパスを用いた機械学習システムを提案する。
機能ベースとトランスフォーマーベースの両方の機械学習アプローチについて論じ、当社のシステムが製品で使われている機能に対して100%のカバレッジを達成することを実証する。
また、Azure Cloud Command Line Interfaceにプロダクション品質システムがデプロイされたことを3年間に学んだ貴重な教訓を共有しています。
- 参考スコア(独自算出の注目度): 4.492634590290527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continuous evolution in modern software often causes documentation,
tutorials, and examples to be out of sync with changing interfaces and
frameworks. Relying on outdated documentation and examples can lead programs to
fail or be less efficient or even less secure. In response, programmers need to
regularly turn to other resources on the web such as StackOverflow for examples
to guide them in writing software. We recognize that this inconvenient,
error-prone, and expensive process can be improved by using machine learning
applied to software usage data. In this paper, we present our practical system
which uses machine learning on large-scale telemetry data and documentation
corpora, generating appropriate and complex examples that can be used to
improve documentation. We discuss both feature-based and transformer-based
machine learning approaches and demonstrate that our system achieves 100%
coverage for the used functionalities in the product, providing up-to-date
examples upon every release and reduces the numbers of PRs submitted by
software owners writing and editing documentation by >68%. We also share
valuable lessons learnt during the 3 years that our production quality system
has been deployed for Azure Cloud Command Line Interface (Azure CLI).
- Abstract(参考訳): 現代のソフトウェアにおける継続的な進化は、しばしばドキュメント、チュートリアル、例が変化したインターフェースやフレームワークと同期しないようにする。
時代遅れのドキュメンテーションや例を参考にすると、プログラムが失敗するか、効率が悪くなり、安全性が低下する。
これに対してプログラマは,StackOverflowなどのWeb上の他のリソースに対して,ソフトウェアの記述をガイドする例を定期的に行わなくてはなりません。
この不便でエラーを起こしやすいプロセスは、ソフトウェアの使用データに機械学習を適用することで改善できると認識している。
本稿では,大規模テレメトリデータと文書コーパスに機械学習を応用し,ドキュメント改善に有効な適切な複雑な例を生成する実践システムを提案する。
我々は、機能ベースとトランスフォーマーベースの機械学習の両方のアプローチを議論し、本システムが使用済みの機能について100%のカバレッジを達成し、リリース毎に最新の例を提供し、ソフトウェアオーナが提出するprの数を68%以上削減できることを実証する。
また、Azure Cloud Command Line Interface(Azure CLI)のためにプロダクション品質システムがデプロイされたことを3年間に学んだ貴重な教訓も公開しています。
関連論文リスト
- CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - AutoCodeRover: Autonomous Program Improvement [8.66280420062806]
プログラムの改善を自律的に達成するために、GitHubの問題を解決する自動化アプローチを提案する。
AutoCodeRoverと呼ばれるアプローチでは、LLMは洗練されたコード検索機能と組み合わせられ、最終的にプログラムの変更やパッチにつながります。
SWE-bench-lite(300の現実のGitHubイシュー)の実験では、GitHubの問題を解決する効果が向上している(SWE-bench-liteでは19%)。
論文 参考訳(メタデータ) (2024-04-08T11:55:09Z) - Online Adaptation of Language Models with a Memory of Amortized Contexts [82.02369596879817]
MAC(Memory of Amortized Contexts)は、大規模言語モデルのための効率的かつ効果的なオンライン適応フレームワークである。
MACとMACを組み合わせれば,検索の高速化など,一般的な代替手段の性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-07T08:34:57Z) - TransformCode: A Contrastive Learning Framework for Code Embedding via Subtree Transformation [9.477734501499274]
コード埋め込みを対照的な学習方法で学習する新しいフレームワークであるTransformCodeを提案する。
我々のフレームワークはエンコーダに依存しない言語に依存しないので、どんなエンコーダモデルでも活用でき、どんなプログラミング言語でも扱える。
論文 参考訳(メタデータ) (2023-11-10T09:05:23Z) - DetAIL : A Tool to Automatically Detect and Analyze Drift In Language [8.968228078113189]
この作業は、機械学習とディープラーニングベースのシステムが従来のソフトウェアと同じくらい信頼されていることを保証することを目的としている。
現在のシステムは、新しいデータが登場するにつれて、これらのモデルの定期的な再トレーニングに依存している。
我々は、新しいデータが起動したときに発生するデータドリフトを測定し、実際に再トレーニングが必要なときにモデルを適応的に再トレーニングできるようにすることを提案する。
論文 参考訳(メタデータ) (2022-11-03T19:50:12Z) - Kubric: A scalable dataset generator [73.78485189435729]
KubricはPythonフレームワークで、PyBulletやBlenderとインターフェースして写真リアリスティックなシーンを生成する。
本研究では,3次元NeRFモデルの研究から光フロー推定まで,13種類の異なるデータセットを提示することで,Kubricの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-07T18:13:59Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - GenNI: Human-AI Collaboration for Data-Backed Text Generation [102.08127062293111]
Table2Textシステムは、機械学習を利用した構造化データに基づいてテキスト出力を生成する。
GenNI (Generation Negotiation Interface) は、対話型ビジュアルシステムである。
論文 参考訳(メタデータ) (2021-10-19T18:07:07Z) - Joint Retrieval and Generation Training for Grounded Text Generation [75.11057157342974]
基底生成モデルは救済策を提供するように見えるが、トレーニングは通常、まれな並列データに依存している。
本研究では,言語モデル信号に接地生成器と文書検索器を共同で訓練することにより,この制約を緩和するフレームワークを提案する。
提案手法は,外部参照を活用することで,文末生成と対話生成の両面で,より情報に富んだ興味深いテキストを生成できることを実証する。
論文 参考訳(メタデータ) (2021-05-14T00:11:38Z) - Documentation of Machine Learning Software [7.154621689269006]
機械学習ソフトウェアドキュメンテーションは、ソフトウェア工学の研究で研究されたほとんどのドキュメントとは異なる。
私たちの最終的な目標は、さまざまなレベルの専門知識を持つユーザのための機械学習ソフトウェアドキュメントの自動生成と適応です。
Stack Overflow Q/Aを調査し、機械学習領域内のドキュメント関連Q/Aを分類する。
論文 参考訳(メタデータ) (2020-01-30T00:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。