論文の概要: APIContext2Com: Code Comment Generation by Incorporating Pre-Defined API
Documentation
- arxiv url: http://arxiv.org/abs/2303.01645v1
- Date: Fri, 3 Mar 2023 00:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 16:40:17.162991
- Title: APIContext2Com: Code Comment Generation by Incorporating Pre-Defined API
Documentation
- Title(参考訳): APIContext2Com: 事前定義されたAPIドキュメンテーションを組み込んだコードコメント生成
- Authors: Ramin Shahbazi, Fatemeh Fard
- Abstract要約: 我々は、異なる複数のエンコーダのセットを持つセック-2-seqエンコーダ-デコーダニューラルネットワークモデルを導入し、異なる入力をターゲットコメントに変換する。
ランク付け機構も開発され,非形式的なAPIを除外して,CodeSearchNetからJavaデータセットを使用してアプローチを評価することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code comments are significantly helpful in comprehending software programs
and also aid developers to save a great deal of time in software maintenance.
Code comment generation aims to automatically predict comments in natural
language given a code snippet. Several works investigate the effect of
integrating external knowledge on the quality of generated comments. In this
study, we propose a solution, namely APIContext2Com, to improve the
effectiveness of generated comments by incorporating the pre-defined
Application Programming Interface (API) context. The API context includes the
definition and description of the pre-defined APIs that are used within the
code snippets. As the detailed API information expresses the functionality of a
code snippet, it can be helpful in better generating the code summary. We
introduce a seq-2-seq encoder-decoder neural network model with different sets
of multiple encoders to effectively transform distinct inputs into target
comments. A ranking mechanism is also developed to exclude non-informative
APIs, so that we can filter out unrelated APIs. We evaluate our approach using
the Java dataset from CodeSearchNet. The findings reveal that the proposed
model improves the best baseline by 1.88 (8.24 %), 2.16 (17.58 %), 1.38 (18.3
%), 0.73 (14.17 %), 1.58 (14.98 %) and 1.9 (6.92 %) for BLEU1, BLEU2, BLEU3,
BLEU4, METEOR, ROUGE-L respectively. Human evaluation and ablation studies
confirm the quality of the generated comments and the effect of architecture
and ranking APIs.
- Abstract(参考訳): コードコメントはソフトウェアプログラムの理解に非常に役立ち、開発者のソフトウェアのメンテナンスに多大な時間を費やすのにも役立ちます。
コードコメント生成は、コードスニペットによって自然言語でコメントを自動的に予測することを目的としている。
いくつかの研究は、外部知識の統合が生成したコメントの品質に与える影響を調査している。
本研究では,api(pre-defined application programming interface)コンテキストを組み込むことにより,生成されたコメントの有効性を向上させるためのソリューションであるapicontext2comを提案する。
APIコンテキストには、コードスニペット内で使用される事前定義されたAPIの定義と記述が含まれている。
詳細なAPI情報は、コードスニペットの機能を表現しているので、コード要約をより良く生成するのに役立ちます。
異なる複数のエンコーダのセットを持つセック-2-seqエンコーダデコーダニューラルネットワークモデルを導入し、異なる入力をターゲットコメントに効果的に変換する。
非形式的なAPIを除外し、無関係なAPIをフィルタリングできるようにランキング機構も開発されている。
CodeSearchNetのJavaデータセットを用いて,我々のアプローチを評価する。
その結果, BLEU1, BLEU2, BLEU3, BLEU4, METEOR, ROUGE-Lはそれぞれ1.88 (8.24 %), 2.16 (17.58 %), 1.38 (18.3 %), 0.73 (14.17 %), 1.58 (14.98 %), 1.9 (6.92 %)の改善が得られた。
人間による評価とアブレーション研究は、生成されたコメントの品質と、アーキテクチャとランキングAPIの効果を確認する。
関連論文リスト
- A Comprehensive Framework for Evaluating API-oriented Code Generation in Large Language Models [14.665460257371164]
GitHub CopilotやChatGPTのような大規模言語モデル(LLM)は、コード生成の強力なツールとして登場した。
API指向コード生成におけるLLMの機能を評価するために設計されたフレームワークであるAutoAPIEvalを提案する。
論文 参考訳(メタデータ) (2024-09-23T17:22:09Z) - A Systematic Evaluation of Large Code Models in API Suggestion: When, Which, and How [53.65636914757381]
API提案は、現代のソフトウェア開発において重要なタスクである。
大規模コードモデル(LCM)の最近の進歩は、API提案タスクにおいて有望であることを示している。
論文 参考訳(メタデータ) (2024-09-20T03:12:35Z) - FANTAstic SEquences and Where to Find Them: Faithful and Efficient API Call Generation through State-tracked Constrained Decoding and Reranking [57.53742155914176]
APIコール生成は、大規模言語モデルのツール使用能力の基盤となっている。
既存の教師付きおよびコンテキスト内学習アプローチは、高いトレーニングコスト、低いデータ効率、APIドキュメントとユーザの要求に反する生成APIコールに悩まされる。
本稿では,これらの制約に対処するため,FANTASEと呼ばれる出力側最適化手法を提案する。
論文 参考訳(メタデータ) (2024-07-18T23:44:02Z) - Comments as Natural Logic Pivots: Improve Code Generation via Comment Perspective [85.48043537327258]
本稿では, MANGO (comMents As Natural loGic pivOts) を提案する。
その結果、MANGOは強いベースラインに基づいてコードパス率を大幅に改善することがわかった。
論理的なコメントの復号化戦略の堅牢性は、考えの連鎖よりも顕著に高い。
論文 参考訳(メタデータ) (2024-04-11T08:30:46Z) - Private-Library-Oriented Code Generation with Large Language Models [52.73999698194344]
本稿では,大規模言語モデル(LLM)をプライベートライブラリのコード生成に活用することに焦点を当てる。
プログラマがプライベートコードを書く過程をエミュレートする新しいフレームワークを提案する。
TorchDataEval、TorchDataComplexEval、MonkeyEval、BeatNumEvalの4つのプライベートライブラリベンチマークを作成しました。
論文 参考訳(メタデータ) (2023-07-28T07:43:13Z) - Interactive Code Generation via Test-Driven User-Intent Formalization [60.90035204567797]
大きな言語モデル(LLM)は、非公式な自然言語(NL)の意図からコードを生成する。
自然言語は曖昧であり、形式的な意味論が欠けているため、正確性の概念を定義するのは難しい。
言語に依存しない抽象アルゴリズムと具体的な実装TiCoderについて述べる。
論文 参考訳(メタデータ) (2022-08-11T17:41:08Z) - On the Effectiveness of Pretrained Models for API Learning [8.788509467038743]
開発者は、Excelファイルのパース、行ごとのテキストファイルの読み書きなど、特定の機能を実装するためにAPIを使うことが多い。
開発者は、より高速でクリーンな方法でアプリケーションを構築するために、自然言語クエリに基づいた自動API使用シーケンス生成の恩恵を受けることができる。
既存のアプローチでは、クエリが与えられたAPIシーケンスの検索や、RNNベースのエンコーダデコーダを使用してAPIシーケンスを生成するために、情報検索モデルを使用している。
論文 参考訳(メタデータ) (2022-04-05T20:33:24Z) - Embedding API Dependency Graph for Neural Code Generation [14.246659920310003]
本稿では,APIメソッド間の依存関係をAPI依存性グラフ(ADG)としてモデル化し,シーケンス・トゥ・シークエンスモデルに組み込む。
このように、デコーダは、グローバル構造依存性とテキストプログラム記述の両方を使用して、ターゲットコードを予測することができます。
提案手法は adg-seq2seq と呼ばれ, 既存の最先端手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-03-29T06:26:38Z) - API2Com: On the Improvement of Automatically Generated Code Comments
Using API Documentations [0.0]
コメント生成の知識リソースとしてAPI Docs(Application Programming Interface Documentations)を利用するモデルであるAPI2Comを提案する。
このモデルを130,000以上のメソッドからなる大規模なJavaデータセットに適用し,TransformerとRNNベースのアーキテクチャを用いて評価する。
論文 参考訳(メタデータ) (2021-03-19T07:29:40Z) - Holistic Combination of Structural and Textual Code Information for
Context based API Recommendation [28.74546332681778]
APIRec-CST (API Recommendation by Combining Structure and Textual code information) と呼ばれる新しいAPIレコメンデーション手法を提案する。
APIRec-CSTは、API Graph NetworkとCode Token Networkをベースにしたソースコードのテキスト情報とAPI使用率を組み合わせたディープラーニングモデルである。
我々は,この手法が60.3%,81.5%,87.7%,69.4%の上位5,上位10の精度,MRRを達成し,既存のグラフベースの統計手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T04:40:42Z) - Contrastive Code Representation Learning [95.86686147053958]
一般的な再構成に基づくBERTモデルは,ソースコードの編集に敏感であることを示す。
コントラコード(ContraCode)は、コード機能を学ぶのにフォームではなく、コントラスト的な事前学習タスクである。
論文 参考訳(メタデータ) (2020-07-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。