論文の概要: Code Generation for Unknown Libraries via Reading API Documentations
- arxiv url: http://arxiv.org/abs/2202.07806v1
- Date: Wed, 16 Feb 2022 00:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 02:33:41.099525
- Title: Code Generation for Unknown Libraries via Reading API Documentations
- Title(参考訳): Reading APIドキュメンテーションによる未知ライブラリのコード生成
- Authors: Koki Washio and Yusuke Miyao
- Abstract要約: 未知のライブラリのコード生成を、追加のトレーニングなしで行うという課題について検討する。
自然言語の意図に基づいて,APIドキュメントから関連コードシグネチャを抽出できるモデルを実装した。
- 参考スコア(独自算出の注目度): 10.122354606820416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-domain code generation is a challenging problem because the set of
functions and classes that we use are frequently changed and extended in
programming communities. We consider the challenge of code generation for
unknown libraries without additional training. In this paper, we explore a
framework of code generation that can refer to relevant API documentations like
human programmers to handle unknown libraries. As a first step of this
direction, we implement a model that can extract relevant code signatures from
API documentations based on a natural language intent and copy primitives from
the extracted signatures. Moreover, to evaluate code generation for unknown
libraries and our framework, we extend an existing dataset of open-domain code
generation and resplit it so that the evaluation data consist of only examples
using the libraries that do not appear in the training data. Experiments on our
new split show that baseline encoder-decoder models cannot generate code using
primitives of unknown libraries as expected. In contrast, our model outperforms
the baseline on the new split and can properly generate unknown primitives when
extracted code signatures are noiseless.
- Abstract(参考訳): オープンドメインのコード生成は、私たちが使っている関数やクラスが頻繁に変更され、プログラミングコミュニティで拡張されるため、難しい問題です。
我々は、追加のトレーニングなしで未知のライブラリのコード生成の課題を考える。
本稿では、未知のライブラリを扱うために、人間プログラマのような関連するAPIドキュメントを参照できるコード生成フレームワークについて検討する。
この方向への第一歩として、自然言語の意図に基づいてAPIドキュメントから関連コードシグネチャを抽出し、抽出したシグネチャからプリミティブをコピーするモデルを実装した。
さらに、未知のライブラリやフレームワークのコード生成を評価するために、既存のオープンドメインコード生成データセットを拡張して再分割することで、評価データはトレーニングデータに現れないライブラリを使用した例のみで構成されます。
我々の新しい分割実験は、ベースラインエンコーダデコーダモデルが期待通りに未知のライブラリのプリミティブを使用してコードを生成することができないことを示している。
対照的に、我々のモデルは新しい分割のベースラインよりも優れており、抽出された符号シグネチャがノイズのないときに未知のプリミティブを適切に生成することができる。
関連論文リスト
- CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - Private-Library-Oriented Code Generation with Large Language Models [52.73999698194344]
本稿では,大規模言語モデル(LLM)をプライベートライブラリのコード生成に活用することに焦点を当てる。
プログラマがプライベートコードを書く過程をエミュレートする新しいフレームワークを提案する。
TorchDataEval、TorchDataComplexEval、MonkeyEval、BeatNumEvalの4つのプライベートライブラリベンチマークを作成しました。
論文 参考訳(メタデータ) (2023-07-28T07:43:13Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Generation-Augmented Query Expansion For Code Retrieval [51.20943646688115]
本稿では,次世代のクエリ拡張フレームワークを提案する。
人間の検索プロセスにインスパイアされた – 検索前に回答をスケッチする。
CodeSearchNetベンチマークで、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2022-12-20T23:49:37Z) - When Language Model Meets Private Library [25.610036042971043]
実際には、プログラマはプライベートライブラリを使ってコードを書くことが一般的である。
これは、トレーニング中にプライベートAPIを見たことがないため、言語モデルにとっての課題である。
APIRetrieverは有用なAPIを見つけ、APICoderはこれらのAPIを使ってコードを生成する。
論文 参考訳(メタデータ) (2022-10-31T11:42:06Z) - DocCoder: Generating Code by Retrieving and Reading Docs [87.88474546826913]
コードマニュアルとドキュメントを明示的に活用するアプローチであるDocCoderを紹介します。
我々のアプローチは一般的に、どんなプログラミング言語にも適用でき、基礎となるニューラルモデルとは無関係です。
論文 参考訳(メタデータ) (2022-07-13T06:47:51Z) - CERT: Continual Pre-Training on Sketches for Library-Oriented Code
Generation [46.45445767488915]
ライブラリ指向コード生成のモデルをトレーニングするために,未実装のコードコーパスを活用する方法を示す。
PandasEvalとNumpyEvalという2つのベンチマークを作成し、ライブラリ指向のコード生成を評価します。
論文 参考訳(メタデータ) (2022-06-14T14:44:34Z) - Retrieve and Refine: Exemplar-based Neural Comment Generation [27.90756259321855]
同様のコードスニペットのコメントはコメントの生成に役立ちます。
我々は、与えられたコード、AST、類似したコード、そして入力として見劣りする新しいセク2seqニューラルネットワークを設計する。
約200万のサンプルを含む大規模Javaコーパスに対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-10-09T09:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。