論文の概要: When Neural Model Meets NL2Code: A Survey
- arxiv url: http://arxiv.org/abs/2212.09420v1
- Date: Mon, 19 Dec 2022 12:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 15:09:09.180097
- Title: When Neural Model Meets NL2Code: A Survey
- Title(参考訳): ニューラルモデルがNL2Codeと出会う: サーベイ
- Authors: Daoguang Zan, Bei Chen, Fengji Zhang, Dianjie Lu, Bingchao Wu, Bei
Guan, Yongji Wang, Jian-Guang Lou
- Abstract要約: ユーザの要求を記述した自然言語を前提として、NL2Codeタスクは、要求に対処するコードを生成することを目的としている。
これは、AIによるプログラミングの能力を反映する重要なタスクですが、難しい作業です。
本稿では、ニューラルネットワーク(NN)がNL2Codeをどのように解決するかに焦点を当てる。
- 参考スコア(独自算出の注目度): 19.606985859571083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given a natural language that describes the user's demands, the NL2Code task
aims to generate code that addresses the demands. This is a critical but
challenging task that mirrors the capabilities of AI-powered programming. The
NL2Code task is inherently versatile, diverse and complex. For example, a
demand can be described in different languages, in different formats, and at
different levels of granularity. This inspired us to do this survey for
NL2Code. In this survey, we focus on how does neural network (NN) solves
NL2Code. We first propose a comprehensive framework, which is able to cover all
studies in this field. Then, we in-depth parse the existing studies into this
framework. We create an online website to record the parsing results, which
tracks existing and recent NL2Code progress. In addition, we summarize the
current challenges of NL2Code as well as its future directions. We hope that
this survey can foster the evolution of this field.
- Abstract(参考訳): ユーザの要求を記述する自然言語を考えると、nl2codeタスクは要求に対応するコードを生成することを目的としている。
これは、AIによるプログラミングの能力を反映する重要なタスクですが、難しい作業です。
NL2Codeタスクは本質的に汎用的で多様で複雑である。
例えば、要求は異なる言語、異なるフォーマット、異なるレベルの粒度で記述できる。
これはNL2Codeのこの調査にインスピレーションを与えました。
本稿では、ニューラルネットワーク(NN)がNL2Codeをどのように解決するかに焦点を当てる。
まず,この分野のすべての研究を対象とする包括的フレームワークを提案する。
そして、既存の研究をこのフレームワークに深く解析します。
解析結果を記録するオンラインWebサイトを作成し、既存のNL2Codeの進捗状況を追跡する。
さらに,NL2Codeの現在の課題と今後の方向性についても概説する。
この調査がこの分野の進化を促進できることを願っています。
関連論文リスト
- Code Needs Comments: Enhancing Code LLMs with Comment Augmentation [91.52444946362547]
本稿では、既存のコードに対するコメントを生成する新しいデータ拡張手法と、自然言語と相関の低いコードデータをフィルタリングするデータフィルタリング戦略を導入する。
我々は3つのコード中心の大規模言語モデルの実験を行い、2つの広く使われているプログラミングスキルベンチマークで一貫した性能向上を観察した。
論文 参考訳(メタデータ) (2024-02-20T13:56:38Z) - YAYI 2: Multilingual Open-Source Large Language Models [53.92832054643197]
我々は,300億のパラメータを持つベースモデルとチャットモデルを含むYAYI 2を提案する。
YAYI 2は、トレーニング済みのデータ処理パイプラインによってフィルタされた2.65兆のトークンを含む多言語コーパス上で、スクラッチから事前トレーニングされる。
ベースモデルは、数百万の指示による教師付き微調整と、人間のフィードバックからの強化学習によって、人間の価値と整合する。
論文 参考訳(メタデータ) (2023-12-22T17:34:47Z) - GenCodeSearchNet: A Benchmark Test Suite for Evaluating Generalization
in Programming Language Understanding [5.9535699822923]
我々は,言語モデルの言語理解能力を評価するために,GenCodeSearchNet (GeCS) という新しいベンチマークデータセットを提案する。
完全なデータセットの一部として、我々が導入した新しい手作業でキュレートされたサブセットであるStatCodeSearchは、人気があるが、これまでのところあまり表現されていないプログラミング言語である。
評価と比較のために、細調整されたBERTスタイルモデルとGPTスタイルの大規模言語モデルを用いて、いくつかのベースライン結果を収集した。
論文 参考訳(メタデータ) (2023-11-16T09:35:00Z) - Unifying the Perspectives of NLP and Software Engineering: A Survey on
Language Models for Code [26.010021614297294]
本稿では,言語モデルを用いたコード処理の最近の進歩を体系的にレビューする。
私たちは、コード処理モデルを、GPTファミリで表される一般的な言語モデルと、特にコードで事前訓練された特殊なモデルに分解します。
AST、CFG、ユニットテストなどのコード固有の機能や、トレーニングコード言語モデルのアプリケーションについて議論し、この領域における重要な課題と将来的な方向性を特定します。
論文 参考訳(メタデータ) (2023-11-14T08:34:26Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Python Code Generation by Asking Clarification Questions [57.63906360576212]
本稿では,この課題に対して,より斬新で現実的なセットアップを導入する。
我々は、自然言語記述の過小評価は、明確化を問うことで解決できると仮定する。
我々は、生成した合成明確化質問と回答を含む自然言語記述とコードのペアを含む、CodeClarQAという新しいデータセットを収集し、導入する。
論文 参考訳(メタデータ) (2022-12-19T22:08:36Z) - MCoNaLa: A Benchmark for Code Generation from Multiple Natural Languages [76.93265104421559]
英語以外の自然言語コマンドからコード生成をベンチマークします。
スペイン語,日本語,ロシア語の3言語で896個のNLコードペアを注釈した。
難易度はこれらの3つの言語によって異なるが、全てのシステムは英語にかなり遅れている。
論文 参考訳(メタデータ) (2022-03-16T04:21:50Z) - BERT2Code: Can Pretrained Language Models be Leveraged for Code Search? [0.7953229555481884]
我々は,本モデルが埋め込み空間と改良のスコープに対するさらなるプローブの間に固有の関係を学習することを示す。
本稿では,コード埋め込みモデルの品質が,我々のモデルの性能のボトルネックであることを示す。
論文 参考訳(メタデータ) (2021-04-16T10:28:27Z) - Incorporating External Knowledge through Pre-training for Natural
Language to Code Generation [97.97049697457425]
オープンドメインコード生成は、自然言語(NL)の意図から汎用プログラミング言語でコードを生成することを目的としている。
オンラインプログラミングQAフォーラムStackOverflowとプログラミング言語APIドキュメントからNL-codeペアを自動的にマイニングする。
評価の結果,2つのソースとデータ拡張と検索ベースデータ再サンプリングを組み合わせることで,コード生成テストベッドCoNaLa上でのBLEUスコアが最大2.2%向上することがわかった。
論文 参考訳(メタデータ) (2020-04-20T01:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。