論文の概要: APIContext2Com: Code Comment Generation by Incorporating Pre-Defined API
Documentation
- arxiv url: http://arxiv.org/abs/2303.01645v1
- Date: Fri, 3 Mar 2023 00:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 16:40:17.162991
- Title: APIContext2Com: Code Comment Generation by Incorporating Pre-Defined API
Documentation
- Title(参考訳): APIContext2Com: 事前定義されたAPIドキュメンテーションを組み込んだコードコメント生成
- Authors: Ramin Shahbazi, Fatemeh Fard
- Abstract要約: 我々は、異なる複数のエンコーダのセットを持つセック-2-seqエンコーダ-デコーダニューラルネットワークモデルを導入し、異なる入力をターゲットコメントに変換する。
ランク付け機構も開発され,非形式的なAPIを除外して,CodeSearchNetからJavaデータセットを使用してアプローチを評価することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code comments are significantly helpful in comprehending software programs
and also aid developers to save a great deal of time in software maintenance.
Code comment generation aims to automatically predict comments in natural
language given a code snippet. Several works investigate the effect of
integrating external knowledge on the quality of generated comments. In this
study, we propose a solution, namely APIContext2Com, to improve the
effectiveness of generated comments by incorporating the pre-defined
Application Programming Interface (API) context. The API context includes the
definition and description of the pre-defined APIs that are used within the
code snippets. As the detailed API information expresses the functionality of a
code snippet, it can be helpful in better generating the code summary. We
introduce a seq-2-seq encoder-decoder neural network model with different sets
of multiple encoders to effectively transform distinct inputs into target
comments. A ranking mechanism is also developed to exclude non-informative
APIs, so that we can filter out unrelated APIs. We evaluate our approach using
the Java dataset from CodeSearchNet. The findings reveal that the proposed
model improves the best baseline by 1.88 (8.24 %), 2.16 (17.58 %), 1.38 (18.3
%), 0.73 (14.17 %), 1.58 (14.98 %) and 1.9 (6.92 %) for BLEU1, BLEU2, BLEU3,
BLEU4, METEOR, ROUGE-L respectively. Human evaluation and ablation studies
confirm the quality of the generated comments and the effect of architecture
and ranking APIs.
- Abstract(参考訳): コードコメントはソフトウェアプログラムの理解に非常に役立ち、開発者のソフトウェアのメンテナンスに多大な時間を費やすのにも役立ちます。
コードコメント生成は、コードスニペットによって自然言語でコメントを自動的に予測することを目的としている。
いくつかの研究は、外部知識の統合が生成したコメントの品質に与える影響を調査している。
本研究では,api(pre-defined application programming interface)コンテキストを組み込むことにより,生成されたコメントの有効性を向上させるためのソリューションであるapicontext2comを提案する。
APIコンテキストには、コードスニペット内で使用される事前定義されたAPIの定義と記述が含まれている。
詳細なAPI情報は、コードスニペットの機能を表現しているので、コード要約をより良く生成するのに役立ちます。
異なる複数のエンコーダのセットを持つセック-2-seqエンコーダデコーダニューラルネットワークモデルを導入し、異なる入力をターゲットコメントに効果的に変換する。
非形式的なAPIを除外し、無関係なAPIをフィルタリングできるようにランキング機構も開発されている。
CodeSearchNetのJavaデータセットを用いて,我々のアプローチを評価する。
その結果, BLEU1, BLEU2, BLEU3, BLEU4, METEOR, ROUGE-Lはそれぞれ1.88 (8.24 %), 2.16 (17.58 %), 1.38 (18.3 %), 0.73 (14.17 %), 1.58 (14.98 %), 1.9 (6.92 %)の改善が得られた。
人間による評価とアブレーション研究は、生成されたコメントの品質と、アーキテクチャとランキングAPIの効果を確認する。
関連論文リスト
- APICom: Automatic API Completion via Prompt Learning and Adversarial
Training-based Data Augmentation [6.029137544885093]
APIレコメンデーションは、開発者が多数の候補APIの中で必要なAPIを見つけるのを支援するプロセスである。
これまでの研究では、主にAPIレコメンデーションをレコメンデーションタスクとしてモデル化していた。
ニューラルネットワーク翻訳研究領域に動機づけられたこの問題を生成タスクとしてモデル化することができる。
提案手法は,プロンプト学習に基づく新しいアプローチAPIComを提案し,そのプロンプトに応じてクエリに関連するAPIを生成する。
論文 参考訳(メタデータ) (2023-09-13T15:31:50Z) - Private-Library-Oriented Code Generation with Large Language Models [52.73999698194344]
本稿では,大規模言語モデル(LLM)をプライベートライブラリのコード生成に活用することに焦点を当てる。
プログラマがプライベートコードを書く過程をエミュレートする新しいフレームワークを提案する。
TorchDataEval、TorchDataComplexEval、MonkeyEval、BeatNumEvalの4つのプライベートライブラリベンチマークを作成しました。
論文 参考訳(メタデータ) (2023-07-28T07:43:13Z) - Evaluating Embedding APIs for Information Retrieval [51.24236853841468]
ドメインの一般化と多言語検索における既存のセマンティック埋め込みAPIの機能を評価する。
BM25の結果をAPIを使って再ランク付けすることは、予算に優しいアプローチであり、英語でもっとも効果的である。
非英語検索では、再ランク付けは結果を改善するが、BM25のハイブリッドモデルは高いコストで機能する。
論文 参考訳(メタデータ) (2023-05-10T16:40:52Z) - Interactive Code Generation via Test-Driven User-Intent Formalization [60.90035204567797]
大きな言語モデル(LLM)は、非公式な自然言語(NL)の意図からコードを生成する。
自然言語は曖昧であり、形式的な意味論が欠けているため、正確性の概念を定義するのは難しい。
言語に依存しない抽象アルゴリズムと具体的な実装TiCoderについて述べる。
論文 参考訳(メタデータ) (2022-08-11T17:41:08Z) - On the Effectiveness of Pretrained Models for API Learning [8.788509467038743]
開発者は、Excelファイルのパース、行ごとのテキストファイルの読み書きなど、特定の機能を実装するためにAPIを使うことが多い。
開発者は、より高速でクリーンな方法でアプリケーションを構築するために、自然言語クエリに基づいた自動API使用シーケンス生成の恩恵を受けることができる。
既存のアプローチでは、クエリが与えられたAPIシーケンスの検索や、RNNベースのエンコーダデコーダを使用してAPIシーケンスを生成するために、情報検索モデルを使用している。
論文 参考訳(メタデータ) (2022-04-05T20:33:24Z) - CodeRetriever: Unimodal and Bimodal Contrastive Learning [128.06072658302165]
関数レベルのコードセマンティック表現を訓練するために,一様および二様のコントラスト学習を組み合わせたCodeRetrieverモデルを提案する。
ノンモーダルなコントラスト学習のために、文書と関数名に基づいてポジティブなコードペアを構築するためのセマンティックガイド付き手法を設計する。
バイモーダルなコントラスト学習では、コードのドキュメンテーションとインラインコメントを活用して、テキストコードペアを構築します。
論文 参考訳(メタデータ) (2022-01-26T10:54:30Z) - Embedding API Dependency Graph for Neural Code Generation [14.246659920310003]
本稿では,APIメソッド間の依存関係をAPI依存性グラフ(ADG)としてモデル化し,シーケンス・トゥ・シークエンスモデルに組み込む。
このように、デコーダは、グローバル構造依存性とテキストプログラム記述の両方を使用して、ターゲットコードを予測することができます。
提案手法は adg-seq2seq と呼ばれ, 既存の最先端手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-03-29T06:26:38Z) - API2Com: On the Improvement of Automatically Generated Code Comments
Using API Documentations [0.0]
コメント生成の知識リソースとしてAPI Docs(Application Programming Interface Documentations)を利用するモデルであるAPI2Comを提案する。
このモデルを130,000以上のメソッドからなる大規模なJavaデータセットに適用し,TransformerとRNNベースのアーキテクチャを用いて評価する。
論文 参考訳(メタデータ) (2021-03-19T07:29:40Z) - Holistic Combination of Structural and Textual Code Information for
Context based API Recommendation [28.74546332681778]
APIRec-CST (API Recommendation by Combining Structure and Textual code information) と呼ばれる新しいAPIレコメンデーション手法を提案する。
APIRec-CSTは、API Graph NetworkとCode Token Networkをベースにしたソースコードのテキスト情報とAPI使用率を組み合わせたディープラーニングモデルである。
我々は,この手法が60.3%,81.5%,87.7%,69.4%の上位5,上位10の精度,MRRを達成し,既存のグラフベースの統計手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T04:40:42Z) - Contrastive Code Representation Learning [95.86686147053958]
一般的な再構成に基づくBERTモデルは,ソースコードの編集に敏感であることを示す。
コントラコード(ContraCode)は、コード機能を学ぶのにフォームではなく、コントラスト的な事前学習タスクである。
論文 参考訳(メタデータ) (2020-07-09T17:59:06Z) - Incorporating External Knowledge through Pre-training for Natural
Language to Code Generation [97.97049697457425]
オープンドメインコード生成は、自然言語(NL)の意図から汎用プログラミング言語でコードを生成することを目的としている。
オンラインプログラミングQAフォーラムStackOverflowとプログラミング言語APIドキュメントからNL-codeペアを自動的にマイニングする。
評価の結果,2つのソースとデータ拡張と検索ベースデータ再サンプリングを組み合わせることで,コード生成テストベッドCoNaLa上でのBLEUスコアが最大2.2%向上することがわかった。
論文 参考訳(メタデータ) (2020-04-20T01:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。