論文の概要: A Transformer-based Approach for Source Code Summarization
- arxiv url: http://arxiv.org/abs/2005.00653v1
- Date: Fri, 1 May 2020 23:29:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 22:45:09.440874
- Title: A Transformer-based Approach for Source Code Summarization
- Title(参考訳): トランスフォーマーを用いたソースコード要約手法
- Authors: Wasi Uddin Ahmad and Saikat Chakraborty and Baishakhi Ray and Kai-Wei
Chang
- Abstract要約: コードトークン間のペア関係をモデル化することにより,要約のためのコード表現を学習する。
アプローチは単純であるにもかかわらず、最先端技術よりもかなりの差があることが示される。
- 参考スコア(独自算出の注目度): 86.08359401867577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating a readable summary that describes the functionality of a program
is known as source code summarization. In this task, learning code
representation by modeling the pairwise relationship between code tokens to
capture their long-range dependencies is crucial. To learn code representation
for summarization, we explore the Transformer model that uses a self-attention
mechanism and has shown to be effective in capturing long-range dependencies.
In this work, we show that despite the approach is simple, it outperforms the
state-of-the-art techniques by a significant margin. We perform extensive
analysis and ablation studies that reveal several important findings, e.g., the
absolute encoding of source code tokens' position hinders, while relative
encoding significantly improves the summarization performance. We have made our
code publicly available to facilitate future research.
- Abstract(参考訳): プログラムの機能を記述する読みやすい要約を生成することは、ソースコード要約として知られている。
このタスクでは、コードトークン間のペア関係をモデル化してコード表現を学習し、長距離依存関係をキャプチャすることが重要です。
要約のためのコード表現を学ぶために,自己着脱機構を用いたトランスフォーマーモデルを探索し,長距離依存性の把握に有効であることを示した。
本研究は,アプローチが単純であるにもかかわらず,最先端技術よりも顕著に優れていることを示す。
我々は、ソースコードトークンの位置を絶対的に符号化することが障害となるなど、いくつかの重要な発見を示す広範囲な解析とアブレーション研究を行い、相対的符号化は要約性能を著しく向上させる。
私たちは将来の研究を促進するためにコードを公開しました。
関連論文リスト
- Enhancing Source Code Representations for Deep Learning with Static
Analysis [10.222207222039048]
本稿では,静的解析とバグレポートやデザインパターンなどのコンテキストを,ディープラーニングモデルのためのソースコード表現に統合する方法について検討する。
我々はASTNN(Abstract Syntax Tree-based Neural Network)法を用いて,バグレポートやデザインパターンから得られたコンテキスト情報を追加して拡張する。
提案手法はソースコードの表現と処理を改善し,タスク性能を向上させる。
論文 参考訳(メタデータ) (2024-02-14T20:17:04Z) - Encoding Version History Context for Better Code Representation [13.045078976464307]
本稿では,コードクローンを予測し,コード分類を行うために,バージョン履歴からコンテキスト情報を符号化することの潜在的な利点について,予備的な証拠を示す。
技術が一貫して機能するためには、コンテキスト、集約、モデルの異なる組み合わせを使用して、より大きなコードベースに関する包括的な調査を行う必要があります。
論文 参考訳(メタデータ) (2024-02-06T07:35:36Z) - SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - Understanding Code Semantics: An Evaluation of Transformer Models in
Summarization [0.0]
関数と変数名を変更することで,コード要約の有効性を評価する。
3つのプログラミング言語にまたがってデッドコードやコメントコードのような敵を導入します。
論文 参考訳(メタデータ) (2023-10-25T02:41:50Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code Summarization [76.57699934689468]
ニューラルモデルの性能を高めるために,デコーダ側で詳細なTokenレベル検索強化機構(Tram)を提案する。
文脈的コードセマンティクスの取得におけるトークンレベルの検索の課題を克服するために,コードセマンティクスを個々の要約トークンに統合することを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - Exploring Representation-Level Augmentation for Code Search [50.94201167562845]
我々は、データ処理やトレーニングを必要としない表現レベルでデータ(コードとクエリの両方)を増強する拡張手法について検討する。
大規模公開データセット上で,最先端のコード検索モデルを用いた表現レベル向上手法を実験的に評価した。
論文 参考訳(メタデータ) (2022-10-21T22:47:37Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。