論文の概要: Towards Top-Down Deep Code Generation in Limited Scopes
- arxiv url: http://arxiv.org/abs/2209.01566v1
- Date: Sun, 4 Sep 2022 08:35:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:37:34.719515
- Title: Towards Top-Down Deep Code Generation in Limited Scopes
- Title(参考訳): 限定的なスコープでトップダウンのディープコード生成へ
- Authors: Jian Gu, Harald C. Gall
- Abstract要約: ディープラーニング生成は、ソフトウェアエンジニアリングのためのディープラーニング(DL4SE)のトピックである
我々は,コードデータの分類,すなわちコード分類を,コード情報の分類の活用に基づいて構築することを提案する。
我々は,高モジュール性と低複雑性のソフトウェアに焦点を当てた,セマンティックピラミッドフレームワーク(SPF)をアプローチとして提案する。
- 参考スコア(独自算出の注目度): 9.429448411561541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep code generation is a topic of deep learning for software engineering
(DL4SE), which adopts neural models to generate code for the intended
functions. Since end-to-end neural methods lack the awareness of domain
knowledge and software hierarchy, the results often require manual correction.
To systematically explore the potential improvements of code generation, we let
it participate in the whole top-down development from intentions to
realizations, which is possible in limited scopes. In the process, it benefits
from massive samples, features, and knowledge. As the foundation, we suggest
building a taxonomy on code data, namely code taxonomy, leveraging the
categorization of code information. Moreover, we introduce a three-layer
semantic pyramid (SP) to associate text data and code data. It identifies the
information of different abstraction levels, and thus introduces the domain
knowledge on development and reveals the hierarchy of software. Furthermore, we
propose a semantic pyramid framework (SPF) as the approach, focusing on
softwares of high modularity and low complexity. SPF divides the code
generation process into stages and reserves spots for potential interactions.
Eventually, we conceived application scopes for SPF.
- Abstract(参考訳): 深層コード生成はソフトウエアエンジニアリングのためのディープラーニング(DL4SE)のトピックであり、意図された機能のためのコードを生成するためにニューラルモデルを採用する。
エンドツーエンドのニューラルメソッドにはドメイン知識とソフトウェア階層の認識が欠けているため、結果は手作業による修正を必要とすることが多い。
コード生成の潜在的な改善を体系的に検討するために、意図から実現までトップダウン開発全体に参加させます。
このプロセスでは、大量のサンプル、特徴、知識の恩恵を受けます。
基礎として,コード情報の分類を利用して,コードデータに基づく分類,すなわちコード分類を構築することを提案する。
さらに、テキストデータとコードデータを関連付ける3層セマンティックピラミッド(SP)を導入する。
異なる抽象化レベルの情報を識別し、開発におけるドメイン知識を導入し、ソフトウェアの階層を明らかにします。
さらに,高モジュール性と低複雑性のソフトウェアに焦点を当てた,セマンティックピラミッドフレームワーク(SPF)をアプローチとして提案する。
SPFはコード生成プロセスを段階に分割し、潜在的な相互作用のためのスポットを予約する。
最終的に、SPFの応用範囲を考え出した。
関連論文リスト
- OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [70.72097493954067]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Deep Learning for Code Intelligence: Survey, Benchmark and Toolkit [63.82016263181941]
コードインテリジェンスは、機械学習技術を活用して、広範なコードコーパスから知識を抽出する。
現在、コードインテリジェンスに重点を置く研究コミュニティは活発です。
論文 参考訳(メタデータ) (2023-12-30T17:48:37Z) - TransformCode: A Contrastive Learning Framework for Code Embedding via Subtree Transformation [9.477734501499274]
コード埋め込みを対照的な学習方法で学習する新しいフレームワークであるTransformCodeを提案する。
我々のフレームワークはエンコーダに依存しない言語に依存しないので、どんなエンコーダモデルでも活用でき、どんなプログラミング言語でも扱える。
論文 参考訳(メタデータ) (2023-11-10T09:05:23Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Adding Context to Source Code Representations for Deep Learning [13.676416860721877]
我々は、ディープラーニングモデルが分析対象のコードに関する追加のコンテキスト情報にアクセスできることは有益であると主張している。
本稿では,コード自体の情報とともに,コール階層からコンテキストを符号化することで,最先端のディープラーニングモデルの性能を向上できることを示す。
論文 参考訳(メタデータ) (2022-07-30T12:47:32Z) - A Survey of Deep Learning Models for Structural Code Understanding [21.66270320648155]
本稿では,コードデータから形成される構造について概観する。
近年のコード理解モデルは,シーケンスベースモデルとグラフベースモデルという2つのグループに分類されている。
メトリクスやデータセット、下流タスクも導入しています。
論文 参考訳(メタデータ) (2022-05-03T03:56:17Z) - Contrastive Learning for Source Code with Structural and Functional
Properties [66.10710134948478]
本稿では,ソースコードの特徴に基づいて事前学習に焦点を当てた,新たな自己教師型モデルBOOSTを提案する。
私たちは、機能的に等価なコードを生成する自動化された構造誘導型コード変換アルゴリズムを採用しています。
私たちは、対照的な学習目標を通じて、機能的に等価なコードをより近く、異なるコードに近づける方法で、モデルをトレーニングします。
論文 参考訳(メタデータ) (2021-10-08T02:56:43Z) - Unsupervised Learning of Neurosymbolic Encoders [40.3575054882791]
本稿では,ニューロシンボリックエンコーダの教師なし学習のためのフレームワークを提案する。
このようなフレームワークは自然に記号的専門家の知識を学習プロセスに組み込むことができ、完全なニューラルエンコーダよりも解釈可能で分解可能な潜在表現をもたらす。
論文 参考訳(メタデータ) (2021-07-28T02:16:14Z) - COSEA: Convolutional Code Search with Layer-wise Attention [90.35777733464354]
我々は、畳み込みニューラルネットワークを階層的注意で活用し、コード固有の構造論理をキャプチャする新しいディープラーニングアーキテクチャ、COSEAを提案する。
COSEAは、コード検索タスクの最先端メソッドよりも大幅に改善できる。
論文 参考訳(メタデータ) (2020-10-19T13:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。