論文の概要: Toward Code Generation: A Survey and Lessons from Semantic Parsing
- arxiv url: http://arxiv.org/abs/2105.03317v1
- Date: Mon, 26 Apr 2021 22:05:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 08:34:40.591555
- Title: Toward Code Generation: A Survey and Lessons from Semantic Parsing
- Title(参考訳): コード生成に向けて:セマンティック解析による調査と教訓
- Authors: Celine Lee (1 and 2), Justin Gottschlich (1 and 2), Dan Roth (2) ((1)
Intel Labs, (2) University of Pennsylvania)
- Abstract要約: まず,自然言語意味解析手法をレビューし,プログラム合成と並行する手法を提案する。
次に、セマンティック解析を進化的な視点から検討し、神経-シンボリック手法、アーキテクチャ、および監督に関する具体的な分析を行います。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growth of natural language processing techniques and demand for
improved software engineering efficiency, there is an emerging interest in
translating intention from human languages to programming languages. In this
survey paper, we attempt to provide an overview of the growing body of research
in this space. We begin by reviewing natural language semantic parsing
techniques and draw parallels with program synthesis efforts. We then consider
semantic parsing works from an evolutionary perspective, with specific analyses
on neuro-symbolic methods, architecture, and supervision. We then analyze
advancements in frameworks for semantic parsing for code generation. In
closing, we present what we believe are some of the emerging open challenges in
this domain.
- Abstract(参考訳): 自然言語処理技術の成長とソフトウェアエンジニアリングの効率化への需要により、人間の言語からプログラミング言語への意図の翻訳への関心が高まっている。
本稿では,この分野における研究の進展について概説する。
まず,自然言語意味解析手法をレビューし,プログラム合成と並行する手法を提案する。
次に、神経シンボリックな手法、アーキテクチャ、監督に関する特定の分析とともに、進化的観点から意味的構文解析の作用を考える。
次に、コード生成のための意味解析のためのフレームワークの進歩を分析する。
締めくくりとして、私たちはこの領域における新たなオープンな課題をいくつか挙げます。
関連論文リスト
- From Word Vectors to Multimodal Embeddings: Techniques, Applications, and Future Directions For Large Language Models [17.04716417556556]
本稿では,分布仮説や文脈的類似性といった基礎概念を概観する。
本稿では, ELMo, BERT, GPTなどのモデルにおいて, 静的な埋め込みと文脈的埋め込みの両方について検討する。
議論は文章や文書の埋め込みにまで拡張され、集約メソッドや生成トピックモデルをカバーする。
モデル圧縮、解釈可能性、数値エンコーディング、バイアス緩和といった高度なトピックを分析し、技術的な課題と倫理的意味の両方に対処する。
論文 参考訳(メタデータ) (2024-11-06T15:40:02Z) - Is English the New Programming Language? How About Pseudo-code Engineering? [0.0]
本研究では,OpenAIの指導的言語モデルであるChatGPTに異なる入力形式がどのような影響を及ぼすかを検討する。
それは、意図、解釈可能性、完全性、創造性の4つのカテゴリにまたがるモデルの習熟度を調べる。
論文 参考訳(メタデータ) (2024-04-08T16:28:52Z) - Language Evolution with Deep Learning [49.879239655532324]
計算モデリングは言語の出現の研究において重要な役割を担っている。
構造化言語の出現を誘発する可能性のある条件と学習プロセスをシミュレートすることを目的としている。
この章では、最近機械学習の分野に革命をもたらした別の種類の計算モデル、ディープ・ラーニング・モデルについて論じる。
論文 参考訳(メタデータ) (2024-03-18T16:52:54Z) - A Survey on Semantic Processing Techniques [38.32578417623237]
意味論の研究は言語学において多次元である。
計算意味処理の研究の深さと幅は、新しい技術で大きく改善できる。
論文 参考訳(メタデータ) (2023-10-22T15:09:51Z) - Analysis of the Evolution of Advanced Transformer-Based Language Models:
Experiments on Opinion Mining [0.5735035463793008]
本稿では,最先端のトランスフォーマーに基づく言語モデルの意見マイニングにおける挙動について検討する。
私たちの比較研究は、フォーカスするアプローチに関して、プロダクションエンジニアがリードし、道を開く方法を示しています。
論文 参考訳(メタデータ) (2023-08-07T01:10:50Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Leveraging Language to Learn Program Abstractions and Search Heuristics [66.28391181268645]
LAPS(Language for Abstraction and Program Search)は、自然言語アノテーションを用いて、ライブラリとニューラルネットワークによる合成のための検索モデルの共同学習をガイドする手法である。
最先端のライブラリ学習システム(DreamCoder)に統合されると、LAPSは高品質なライブラリを生成し、検索効率と一般化を改善する。
論文 参考訳(メタデータ) (2021-06-18T15:08:47Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。