論文の概要: Improved Code Summarization via a Graph Neural Network
- arxiv url: http://arxiv.org/abs/2004.02843v2
- Date: Tue, 7 Apr 2020 06:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 07:23:15.261651
- Title: Improved Code Summarization via a Graph Neural Network
- Title(参考訳): グラフニューラルネットワークによるコード要約の改善
- Authors: Alexander LeClair, Sakib Haque, Lingfei Wu, Collin McMillan
- Abstract要約: 一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
- 参考スコア(独自算出の注目度): 96.03715569092523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic source code summarization is the task of generating natural
language descriptions for source code. Automatic code summarization is a
rapidly expanding research area, especially as the community has taken greater
advantage of advances in neural network and AI technologies. In general, source
code summarization techniques use the source code as input and outputs a
natural language description. Yet a strong consensus is developing that using
structural information as input leads to improved performance. The first
approaches to use structural information flattened the AST into a sequence.
Recently, more complex approaches based on random AST paths or graph neural
networks have improved on the models using flattened ASTs. However, the
literature still does not describe the using a graph neural network together
with source code sequence as separate inputs to a model. Therefore, in this
paper, we present an approach that uses a graph-based neural architecture that
better matches the default structure of the AST to generate these summaries. We
evaluate our technique using a data set of 2.1 million Java method-comment
pairs and show improvement over four baseline techniques, two from the software
engineering literature, and two from machine learning literature.
- Abstract(参考訳): ソースコードの自動要約は、ソースコードの自然言語記述を生成するタスクである。
自動コード要約は急速に普及している研究分野であり、特にコミュニティはニューラルネットワークとAI技術の進歩を大いに活用している。
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
しかし、構造情報を入力として使用することでパフォーマンスが向上するという強いコンセンサスが生まれている。
構造情報を使用する最初のアプローチは、ASTをシーケンスに平らにした。
近年、フラット化ASTを用いたモデルでは、ランダムASTパスやグラフニューラルネットワークに基づくより複雑なアプローチが改良されている。
しかし、グラフニューラルネットワークとソースコードシーケンスをモデルへの別々の入力として使用することについては、文献にはまだ説明されていない。
そこで本稿では,これらの要約を生成するために,astのデフォルト構造に合致するグラフベースのニューラルアーキテクチャを用いたアプローチを提案する。
2100万のjavaメソッドコミットペアのデータセットを用いて手法を評価し,4つのベースライン技術,ソフトウェア工学文献から2つ,機械学習文献から2つの改善を示す。
関連論文リスト
- Source Code Vulnerability Detection: Combining Code Language Models and Code Property Graphs [5.953617559607503]
Vul-LMGNNは、事前訓練されたコード言語モデルとコードプロパティグラフを組み合わせた統一モデルである。
Vul-LMGNNは、様々なコード属性を統一的なグラフ構造に統合するコードプロパティグラフを構築する。
属性間の依存性情報を効果的に保持するために,ゲートコードグラフニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2024-04-23T03:48:18Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Boosting Source Code Learning with Data Augmentation: An Empirical Study [16.49710700412084]
本研究では,もともとテキストやグラフに用いたデータ拡張手法が,ソースコード学習のトレーニング品質向上に有効かどうかを検討する。
この結果から,より正確でロバストなソースコード学習モデルを生成するデータ拡張手法が同定された。
論文 参考訳(メタデータ) (2023-03-13T01:47:05Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Precise Learning of Source Code Contextual Semantics via Hierarchical
Dependence Structure and Graph Attention Networks [28.212889828892664]
階層的な依存関係を組み込んだ新しいソースコードモデルを提案する。
本稿では,基本ブロックの構文構造,すなわち対応するASTをソースコードモデルに導入し,十分な情報を提供する。
その結果,本モデルではパラメータのスケールを50%削減し,プログラム分類タスクの精度を4%向上させることができた。
論文 参考訳(メタデータ) (2021-11-20T04:03:42Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Unsupervised Deep Cross-modality Spectral Hashing [65.3842441716661]
このフレームワークは、最適化をバイナリ最適化とハッシュ関数学習に分離する2段階のハッシュアプローチである。
本稿では,単一モダリティと二項相互モダリティを同時に学習するスペクトル埋め込みに基づく新しいアルゴリズムを提案する。
我々は、画像に強力なCNNを活用し、テキストモダリティを学ぶためのCNNベースのディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-08-01T09:20:11Z) - Learning to map source code to software vulnerability using
code-as-a-graph [67.62847721118142]
セキュリティの観点からソースコードのニュアンス学習におけるグラフニューラルネットワークの適用性について検討する。
我々は,既存のコード・アズ・フォトや線形シーケンスの符号化手法よりも,脆弱性検出に有効なコード・アズ・グラフの符号化法を示す。
論文 参考訳(メタデータ) (2020-06-15T16:05:27Z) - Retrieval-Augmented Generation for Code Summarization via Hybrid GNN [23.445231228940738]
両世界の利益を両立させる新しい検索強化機構を提案する。
ソースコードのグローバルなグラフ構造情報を取得する際のグラフニューラルネットワーク(GNN)の制限を軽減するために,新しい注目に基づく動的グラフを提案する。
提案手法は,既存の手法をBLEU-4,ROUGE-L,METEORで1.42,2.44,1.29改良し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-06-09T17:09:29Z) - DeepSumm -- Deep Code Summaries using Neural Transformer Architecture [8.566457170664927]
我々はソースコード要約の課題を解決するためにニューラルネットワークを用いる。
2.1m以上のコメントとコードの教師付きサンプルで、トレーニング時間を50%以上短縮します。
論文 参考訳(メタデータ) (2020-03-31T22:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。