論文の概要: Revisiting File Context for Source Code Summarization
- arxiv url: http://arxiv.org/abs/2309.02326v1
- Date: Tue, 5 Sep 2023 15:44:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 14:05:45.741079
- Title: Revisiting File Context for Source Code Summarization
- Title(参考訳): ソースコード要約のためのファイルコンテキストの再検討
- Authors: Aakash Bansal, Chia-Yi Su, and Collin McMillan
- Abstract要約: 典型的なユースケースは、APIドキュメントで使用するサブルーチンの短い要約を生成することだ。
コード要約に関する現在の研究の核心はエンコーダ・デコーダ・ニューラルアーキテクチャである。
本稿では,コード要約における「ファイルコンテキスト」の考え方を再考する。
- 参考スコア(独自算出の注目度): 2.85386288555414
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Source code summarization is the task of writing natural language
descriptions of source code. A typical use case is generating short summaries
of subroutines for use in API documentation. The heart of almost all current
research into code summarization is the encoder-decoder neural architecture,
and the encoder input is almost always a single subroutine or other short code
snippet. The problem with this setup is that the information needed to describe
the code is often not present in the code itself -- that information often
resides in other nearby code. In this paper, we revisit the idea of ``file
context'' for code summarization. File context is the idea of encoding select
information from other subroutines in the same file. We propose a novel
modification of the Transformer architecture that is purpose-built to encode
file context and demonstrate its improvement over several baselines. We find
that file context helps on a subset of challenging examples where traditional
approaches struggle.
- Abstract(参考訳): ソースコードの要約は、ソースコードの自然言語記述を書くタスクである。
典型的なユースケースは、APIドキュメントで使用するサブルーチンの短い要約を生成することだ。
コード要約に関する現在の研究の核心はエンコーダ-デコーダニューラルアーキテクチャであり、エンコーダ入力はほとんど常に1つのサブルーチンや他の短いコードスニペットである。
この設定の問題は、コードを記述するために必要な情報がコード自体に存在しないことが多いことです。
本稿では,コード要約における `file context'' の考え方を再考する。
ファイルコンテキストとは、同じファイル内の他のサブルーチンから選択情報をエンコードする考え方である。
本稿では,ファイルコンテキストをエンコードし,その改善を複数のベースラインで示す目的で構築されたTransformerアーキテクチャの新たな改良を提案する。
ファイルコンテキストは、従来のアプローチが苦労する困難な例のサブセットに役立ちます。
関連論文リスト
- SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - Statement-based Memory for Neural Source Code Summarization [4.024850952459758]
コードの要約は、プログラマのためのソフトウェアドキュメントの基盤となる。
近年,自動コード要約技術の研究のフロンティアとして,ニューラルネットワークの要約が登場している。
本稿では,文ベースのメモリエンコーダを提案し,学習中のフローの重要な要素を学習し,文ベースのサブルーチン表現を実現する。
論文 参考訳(メタデータ) (2023-07-21T17:04:39Z) - Outline, Then Details: Syntactically Guided Coarse-To-Fine Code
Generation [61.50286000143233]
ChainCoderは、Pythonコードを段階的に生成するプログラム合成言語モデルである。
自然言語記述と構文的に整合したI/Oデータサンプルを共同で符号化するために、カスタマイズされたトランスフォーマーアーキテクチャを利用する。
論文 参考訳(メタデータ) (2023-04-28T01:47:09Z) - Soft-Labeled Contrastive Pre-training for Function-level Code
Representation [127.71430696347174]
textbfSoft-labeled contrastive pre-training framework with two positive sample construction method。
大規模コードコーパスにおけるコード間の関連性を考慮すると、ソフトラベル付きコントラスト付き事前学習は、きめ細かいソフトラベルを得ることができる。
SCodeRは、7つのデータセットで4つのコード関連タスクに対して、最先端のパフォーマンスを新たに達成する。
論文 参考訳(メタデータ) (2022-10-18T05:17:37Z) - DocCoder: Generating Code by Retrieving and Reading Docs [87.88474546826913]
コードマニュアルとドキュメントを明示的に活用するアプローチであるDocCoderを紹介します。
我々のアプローチは一般的に、どんなプログラミング言語にも適用でき、基礎となるニューラルモデルとは無関係です。
論文 参考訳(メタデータ) (2022-07-13T06:47:51Z) - StructCoder: Structure-Aware Transformer for Code Generation [13.797842927671846]
本稿では、構文とデータフローの両方をモデル化し、生成されたコードの品質を向上させる構造対応トランスフォーマーデコーダを提案する。
提案したStructCoderモデルは、コード翻訳およびテキスト・トゥ・コード生成タスクにおける最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-06-10T17:26:31Z) - InCoder: A Generative Model for Code Infilling and Synthesis [88.46061996766348]
InCoderは、プログラム合成(左から右への生成)と編集(埋め込み)が可能な統合生成モデルである。
InCoderは、許可されたコードの大きなコーパスからコードファイルを生成するように訓練されている。
私たちのモデルは、ゼロショットコードの埋め込みを直接実行できる最初の生成モデルです。
論文 参考訳(メタデータ) (2022-04-12T16:25:26Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - Project-Level Encoding for Neural Source Code Summarization of
Subroutines [6.939768185086755]
コード要約のモデルを改善するプロジェクトレベルのエンコーダを提案する。
我々はこの表現を用いて、最先端のニューラルネットワーク要約技術のエンコーダを強化する。
論文 参考訳(メタデータ) (2021-03-22T06:01:07Z) - Retrieve and Refine: Exemplar-based Neural Comment Generation [27.90756259321855]
同様のコードスニペットのコメントはコメントの生成に役立ちます。
我々は、与えられたコード、AST、類似したコード、そして入力として見劣りする新しいセク2seqニューラルネットワークを設計する。
約200万のサンプルを含む大規模Javaコーパスに対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-10-09T09:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。