論文の概要: A Survey of Deep Learning Models for Structural Code Understanding
- arxiv url: http://arxiv.org/abs/2205.01293v1
- Date: Tue, 3 May 2022 03:56:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 14:53:35.243739
- Title: A Survey of Deep Learning Models for Structural Code Understanding
- Title(参考訳): 構造的コード理解のためのディープラーニングモデルの検討
- Authors: Ruoting Wu, Yuxin Zhang, Qibiao Peng, Liang Chen and Zibin Zheng
- Abstract要約: 本稿では,コードデータから形成される構造について概観する。
近年のコード理解モデルは,シーケンスベースモデルとグラフベースモデルという2つのグループに分類されている。
メトリクスやデータセット、下流タスクも導入しています。
- 参考スコア(独自算出の注目度): 21.66270320648155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the rise of deep learning and automation requirements in the
software industry has elevated Intelligent Software Engineering to new heights.
The number of approaches and applications in code understanding is growing,
with deep learning techniques being used in many of them to better capture the
information in code data. In this survey, we present a comprehensive overview
of the structures formed from code data. We categorize the models for
understanding code in recent years into two groups: sequence-based and
graph-based models, further make a summary and comparison of them. We also
introduce metrics, datasets and the downstream tasks. Finally, we make some
suggestions for future research in structural code understanding field.
- Abstract(参考訳): 近年、ソフトウェア産業におけるディープラーニングと自動化の要件が高まり、インテリジェントなソフトウェアエンジニアリングが新たな高みに上昇している。
コード理解におけるアプローチやアプリケーションの数は増えており、深層学習技術の多くは、コードデータの情報をよりよく捉えるために使用されている。
本稿では,コードデータから形成される構造の包括的概要について述べる。
近年のコード理解モデルについては,シーケンスベースモデルとグラフベースモデルという2つのグループに分類し,要約と比較を行った。
メトリクスやデータセット、下流タスクも導入しています。
最後に,構造コード理解分野における今後の研究について提案する。
関連論文リスト
- Does Your Neural Code Completion Model Use My Code? A Membership Inference Approach [66.51005288743153]
本稿では,現在のニューラルコード補完モデルの法的および倫理的問題について考察する。
私たちは、もともと分類タスクのために作られたメンバシップ推論アプローチ(CodeMIと呼ばれる)を調整します。
我々は,この適応型アプローチの有効性を,多種多様なニューラルコード補完モデルで評価した。
論文 参考訳(メタデータ) (2024-04-22T15:54:53Z) - Semantically Aligned Question and Code Generation for Automated Insight Generation [20.795381712667034]
我々は、大規模言語モデルのセマンティック知識を活用して、データに対するターゲット的で洞察に富んだ質問を生成する。
埋め込みは意味的に不整合な質問とコードのペアをフィルタリングするのに有効であることを示す。
論文 参考訳(メタデータ) (2024-03-21T10:01:05Z) - Survey of Code Search Based on Deep Learning [11.94599964179766]
この調査は、コード検索、すなわち、あるクエリにマッチするコードを取得することに焦点を当てている。
複雑な意味情報を抽出できるディープラーニングは、この分野で大きな成功を収めている。
本稿では,最先端のディープラーニングに基づくコード検索を記述した新しい分類法を提案する。
論文 参考訳(メタデータ) (2023-05-10T08:07:04Z) - CodeExp: Explanatory Code Document Generation [94.43677536210465]
既存のコード・トゥ・テキスト生成モデルは、コードの高レベルな要約のみを生成する。
我々は、コードのための高品質な説明記述の基準を特定するために、人間の研究を行う。
タスクのための多段階微調整戦略とベースラインモデルを提案する。
論文 参考訳(メタデータ) (2022-11-25T18:05:44Z) - Deep learning for table detection and structure recognition: A survey [49.09628624903334]
本調査の目的は,テーブル検出の分野での大きな進展を深く理解することである。
この分野における古典的アプリケーションと新しいアプリケーションの両方について分析する。
既存のモデルのデータセットとソースコードは、読者にこの膨大な文献のコンパスを提供するために組織されている。
論文 参考訳(メタデータ) (2022-11-15T19:42:27Z) - Towards Top-Down Automated Development in Limited Scopes: A
Neuro-Symbolic Framework from Expressibles to Executables [4.844958528198992]
我々は、コードデータ、すなわちコード分類に基づいて分類を構築し、コード情報の分類を利用する。
テキストデータとコードデータを関連付ける3層セマンティックピラミッド(SP)を導入する。
本稿では,高モジュール性と低複雑性のソフトウェアに焦点を当てたセマンティックピラミッドフレームワーク(SPF)をアプローチとして提案する。
論文 参考訳(メタデータ) (2022-09-04T08:35:16Z) - Adding Context to Source Code Representations for Deep Learning [13.676416860721877]
我々は、ディープラーニングモデルが分析対象のコードに関する追加のコンテキスト情報にアクセスできることは有益であると主張している。
本稿では,コード自体の情報とともに,コール階層からコンテキストを符号化することで,最先端のディープラーニングモデルの性能を向上できることを示す。
論文 参考訳(メタデータ) (2022-07-30T12:47:32Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z) - COSEA: Convolutional Code Search with Layer-wise Attention [90.35777733464354]
我々は、畳み込みニューラルネットワークを階層的注意で活用し、コード固有の構造論理をキャプチャする新しいディープラーニングアーキテクチャ、COSEAを提案する。
COSEAは、コード検索タスクの最先端メソッドよりも大幅に改善できる。
論文 参考訳(メタデータ) (2020-10-19T13:53:38Z) - GraphCodeBERT: Pre-training Code Representations with Data Flow [97.00641522327699]
本稿では,コード固有の構造を考慮したプログラミング言語の事前学習モデルであるGraphCodeBERTを提案する。
これは変数間の"where-the-value-comes-from"の関係をエンコードするコードのセマンティックレベルの構造です。
コード検索,クローン検出,コード翻訳,コード改良の4つのタスクにおいて,本モデルを評価する。
論文 参考訳(メタデータ) (2020-09-17T15:25:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。