論文の概要: Deep Learning for Source Code Modeling and Generation: Models,
Applications and Challenges
- arxiv url: http://arxiv.org/abs/2002.05442v1
- Date: Thu, 13 Feb 2020 11:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 10:11:00.386457
- Title: Deep Learning for Source Code Modeling and Generation: Models,
Applications and Challenges
- Title(参考訳): ソースコードモデリングと生成のためのディープラーニング:モデル、アプリケーション、挑戦
- Authors: Triet H. M. Le, Hao Chen, M. Ali Babar
- Abstract要約: 自然言語処理のためのディープラーニング(DL)技術は急速に進化してきた。
近年,言語モデリング,機械翻訳,段落理解の進歩が目覚ましいため,ソフトウェア工学におけるDLの可能性を見落とせない。
- 参考スコア(独自算出の注目度): 5.4052819252055055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning (DL) techniques for Natural Language Processing have been
evolving remarkably fast. Recently, the DL advances in language modeling,
machine translation and paragraph understanding are so prominent that the
potential of DL in Software Engineering cannot be overlooked, especially in the
field of program learning. To facilitate further research and applications of
DL in this field, we provide a comprehensive review to categorize and
investigate existing DL methods for source code modeling and generation. To
address the limitations of the traditional source code models, we formulate
common program learning tasks under an encoder-decoder framework. After that,
we introduce recent DL mechanisms suitable to solve such problems. Then, we
present the state-of-the-art practices and discuss their challenges with some
recommendations for practitioners and researchers as well.
- Abstract(参考訳): 自然言語処理のためのディープラーニング(DL)技術は急速に進化してきた。
近年、言語モデリング、機械翻訳、段落理解におけるDLの進歩は、特にプログラム学習の分野では、ソフトウェア工学におけるDLの可能性を見落とせないほどに顕著である。
この分野でDLのさらなる研究と応用を容易にするため、ソースコードモデリングと生成のための既存のDLメソッドを分類・検討するための総合的なレビューを提供する。
従来のソースコードモデルの限界に対処するため,エンコーダ・デコーダ・フレームワークを用いて共通プログラム学習タスクを定式化する。
その後,このような問題を解決するための最近のdl機構を紹介する。
次に,最先端の実践を紹介し,その課題を実践者や研究者にも推奨して議論する。
関連論文リスト
- Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - DeepCodeProbe: Towards Understanding What Models Trained on Code Learn [13.135962181354465]
本稿では,MLモデルの構文と表現学習能力を調べるための探索手法であるDeepCodeProbeを紹介する。
コードクローン検出,コード要約,コメント生成の最先端モデルにDeepCodeProbeを適用した。
発見によると、小さなモデルは抽象構文表現をキャプチャするが、プログラミング言語の構文を完全に把握する能力は限られている。
論文 参考訳(メタデータ) (2024-07-11T23:16:44Z) - Science-Informed Deep Learning (ScIDL) With Applications to Wireless Communications [11.472232944923558]
本稿では,ScIDL(Science-informed Deep Learning)に関するチュートリアルを紹介する。
ScIDLは、既存の科学知識をDL技術と統合し、より強力なアルゴリズムを開発することを目的としている。
我々は、ScidLの最近の応用と、無線通信分野における今後の研究方向性について論じる。
論文 参考訳(メタデータ) (2024-06-29T02:35:39Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z) - Deep Learning in Healthcare: An In-Depth Analysis [1.892561703051693]
本稿では,Deep Learningモデルとそのバイオインフォマティクスおよび医療への応用について概説する。
また、DL研究の実施中に現われうるいくつかの重要な課題についても検討する。
論文 参考訳(メタデータ) (2023-02-12T20:55:34Z) - A Survey on Pretrained Language Models for Neural Code Intelligence [4.020523898765404]
Neural Code Intelligence(NCI)の分野は、ソースコードの分析タスクに取り組むための有望なソリューションとして登場した。
NCIは、プログラミングの効率を改善し、ソフトウェア業界におけるヒューマンエラーを最小限にすることを目的としている。
事前訓練された言語モデルはNCI研究において支配的な力となり、常に最先端の成果をもたらしている。
論文 参考訳(メタデータ) (2022-12-20T08:34:56Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Towards Training Reproducible Deep Learning Models [26.547756923322126]
ディープラーニング(DL)モデルは、ソフトウェアにおけるランダム性やハードウェアにおける非決定性といった問題により、再現が困難である。
本稿では,再現可能なDLモデルを学習するための体系的なアプローチを提案する。
ケーススタディでは,6つのオープンソースと1つの商用DLモデルを再現することができた。
論文 参考訳(メタデータ) (2022-02-04T18:14:39Z) - Reprogramming Language Models for Molecular Representation Learning [65.00999660425731]
本稿では,分子学習タスクのための事前学習言語モデルに対して,辞書学習(R2DL)による表現再プログラミングを提案する。
対比プログラムは、k-SVDソルバを用いて、高密度ソースモデル入力空間(言語データ)とスパースターゲットモデル入力空間(例えば、化学および生物学的分子データ)との間の線形変換を学習する。
R2DLは、ドメイン固有のデータに基づいて訓練されたアート毒性予測モデルの状態によって確立されたベースラインを達成し、限られたトレーニングデータ設定でベースラインを上回る。
論文 参考訳(メタデータ) (2020-12-07T05:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。