論文の概要: The Good, the Bad, and the Missing: Neural Code Generation for Machine
Learning Tasks
- arxiv url: http://arxiv.org/abs/2305.09082v1
- Date: Tue, 16 May 2023 00:52:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 08:33:07.891641
- Title: The Good, the Bad, and the Missing: Neural Code Generation for Machine
Learning Tasks
- Title(参考訳): The Good, the Bad, and the Missing: Neural Code Generation for Machine Learning Tasks
- Authors: Jiho Shin, Moshi Wei, Junjie Wang, Lin Shi, Song Wang
- Abstract要約: 本稿では,既存のニューラルコード生成モデルが機械学習プログラミングタスクに与える影響について検討する。
我々は6つの最先端のニューラルコード生成モデルを選択し、その性能を4つの広く使われているMLライブラリで評価する。
私たちの経験的研究は、MLタスクにおけるニューラルネットワーク生成モデルの優れた、悪い、欠落した側面を明らかにします。
- 参考スコア(独自算出の注目度): 11.837851107416588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) has been increasingly used in a variety of domains,
while solving ML programming tasks poses unique challenges because of the
fundamentally different nature and construction from general programming tasks,
especially for developers who do not have ML backgrounds. Automatic code
generation that produces a code snippet from a natural language description can
be a promising technique to accelerate ML programming tasks. In recent years,
although many deep learning-based neural code generation models have been
proposed with high accuracy, the fact that most of them are mainly evaluated on
general programming tasks calls into question their effectiveness and
usefulness in ML programming tasks. In this paper, we set out to investigate
the effectiveness of existing neural code generation models on ML programming
tasks. For our analysis, we select six state-of-the-art neural code generation
models, and evaluate their performance on four widely used ML libraries, with
newly-created 83K pairs of natural-language described ML programming tasks. Our
empirical study reveals some good, bad, and missing aspects of neural code
generation models on ML tasks, with a few major ones listed below. (Good)
Neural code generation models perform significantly better on ML tasks than on
non-ML tasks. (Bad) Most of the generated code is semantically incorrect. (Bad)
Code generation models cannot significantly improve developers' completion
time. (Good) The generated code can help developers write more correct code by
providing developers with clues for using correct APIs. (Missing) The
observation from our user study reveals the missing aspects of code generation
for ML tasks, e.g., decomposing code generation for divide-and-conquer into two
tasks: API sequence identification and API usage generation.
- Abstract(参考訳): 機械学習(ML)は、さまざまな領域でますます使われているが、MLプログラミングタスクの解決には、一般的なプログラミングタスクと根本的に異なる性質と構成、特にMLバックグラウンドを持たない開発者にとって、ユニークな課題が生じる。
自然言語記述からコードスニペットを生成する自動コード生成は、MLプログラミングタスクを高速化するための有望なテクニックである。
近年,多くのディープラーニングベースのニューラルコード生成モデルが高い精度で提案されているが,そのほとんどが一般的なプログラミングタスクで評価されているという事実は,MLプログラミングタスクの有効性と有用性に疑問を呈している。
本稿では,MLプログラミングにおける既存のニューラルコード生成モデルの有効性について検討する。
そこで本研究では,6つの最先端ニューラルコード生成モデルを選択し,その性能を4つのmlライブラリで評価し,新たに83kペアの自然言語記述mlプログラミングタスクを用いて評価した。
私たちの経験的研究は、MLタスクにおけるニューラルネットワーク生成モデルの優れた、悪い、そして欠落した側面を明らかにします。
(おはよう)
ニューラルコード生成モデルは、非MLタスクよりもMLタスクで大幅にパフォーマンスが向上する。
(悪)
生成されたコードのほとんどは意味的に間違っています。
(悪)
コード生成モデルは、開発者の完了時間を大幅に改善することはできない。
(おはよう)
生成されたコードは、開発者が正しいAPIを使用するためのヒントを提供することで、より正確なコードを書くのに役立つ。
(ミス)
ユーザ調査から明らかになったのは,MLタスクのコード生成の欠如,例えば分割/クエリのためのコード生成を2つのタスクに分解する,という2つの側面だ。
関連論文リスト
- CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Neuron Patching: Semantic-based Neuron-level Language Model Repair for Code Generation [32.178931149612644]
ulModel ulImprovement via ulNeuron ulTargeting (textscMINT)は、コード言語モデル(LM)を修復するための新しいアプローチである。
textscMINTは有効で効率的で信頼性が高く、最小数のニューロンにパッチを当てることで神経モデルを修正できる。
論文 参考訳(メタデータ) (2023-12-08T20:28:08Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - Testing LLMs on Code Generation with Varying Levels of Prompt
Specificity [0.0]
大規模言語モデル (LLM) は、人間のようなテキスト生成と処理を模倣する非並列的な技術を示している。
自然言語のプロンプトを実行可能なコードに変換する可能性は、ソフトウェア開発プラクティスの大きな変化を約束します。
論文 参考訳(メタデータ) (2023-11-10T23:41:41Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Do Large Language Models Pay Similar Attention Like Human Programmers When Generating Code? [10.249771123421432]
我々は,Large Language Models (LLMs) が,コード生成中に人間のプログラマと同じタスク記述に係わるかどうかを検討する。
手動で211の間違ったコードスニペットを分析し、多くのコード生成エラーを説明するのに使える5つの注意パターンを見つけました。
この結果から,人間によるLLMの理解性向上とプログラマの信頼度向上の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2023-06-02T00:57:03Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - NatGen: Generative pre-training by "Naturalizing" source code [18.410818213965918]
我々は,ソースコードの「成熟化」という新たな事前学習目標を提案する。
自然言語とは異なり、コードのバイモーダルでデュアルチャネルの性質により、意味論的に等価なコードを大規模に生成することができます。
私たちは、CodeT5に匹敵する最先端のパフォーマンスを達成するために、3つの生成ソフトウェアエンジニアリングタスクでモデルを微調整します。
論文 参考訳(メタデータ) (2022-06-15T15:08:29Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。