論文の概要: Multi-modal Program Inference: a Marriage of Pre-trainedLanguage Models
and Component-based Synthesis
- arxiv url: http://arxiv.org/abs/2109.02445v1
- Date: Fri, 3 Sep 2021 16:12:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 14:08:28.419172
- Title: Multi-modal Program Inference: a Marriage of Pre-trainedLanguage Models
and Component-based Synthesis
- Title(参考訳): マルチモーダルプログラム推論:事前学習言語モデルとコンポーネントベース合成の結婚
- Authors: Kia Rahmani, Mohammad Raza, Sumit Gulwani, Vu Le, Daniel Morris, Arjun
Radhakrishna, Gustavo Soares, Ashish Tiwari
- Abstract要約: マルチモーダルプログラム合成(マルチモーダルプログラムせき、英: Multi-modal program synthesis)とは、プログラム(コード)を異なる形式で指定した仕様から合成するタスクである。
例は正確だが不完全な仕様を提供し、自然言語は曖昧だがより「完全」なタスク記述を提供する。
2つのプログラミング領域に対するマルチモーダル合成システムのインスタンス化に,我々の組み合わせアプローチを用いる。
- 参考スコア(独自算出の注目度): 15.427687814482724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal program synthesis refers to the task of synthesizing programs
(code) from their specification given in different forms, such as a combination
of natural language and examples. Examples provide a precise but incomplete
specification, and natural language provides an ambiguous but more "complete"
task description. Machine-learned pre-trained models (PTMs) are adept at
handling ambiguous natural language, but struggle with generating syntactically
and semantically precise code. Program synthesis techniques can generate
correct code, often even from incomplete but precise specifications, such as
examples, but they are unable to work with the ambiguity of natural languages.
We present an approach that combines PTMs with component-based synthesis (CBS):
PTMs are used to generate candidates programs from the natural language
description of the task, which are then used to guide the CBS procedure to find
the program that matches the precise examples-based specification. We use our
combination approach to instantiate multi-modal synthesis systems for two
programming domains: the domain of regular expressions and the domain of CSS
selectors. Our evaluation demonstrates the effectiveness of our domain-agnostic
approach in comparison to a state-of-the-art specialized system, and the
generality of our approach in providing multi-modal program synthesis from
natural language and examples in different programming domains.
- Abstract(参考訳): マルチモーダルプログラム合成(multi-modal program synthesis)は、自然言語と例の組み合わせなど、異なる形式で与えられた仕様からプログラム(コード)を合成するタスクである。
例は正確だが不完全な仕様を提供し、自然言語は曖昧だがより「完全」なタスク記述を提供する。
機械学習型事前学習モデル(PTM)はあいまいな自然言語を扱うには適しているが、構文的かつ意味論的に正確なコードを生成するのに苦労している。
プログラム合成技術は、例えば、不完全だが正確な仕様からでさえも、正しいコードを生成することができるが、自然言語の曖昧さを扱うことができない。
我々は、ptmとコンポーネントベース合成(cbs: component-based synthesis)を組み合わせたアプローチを提案する。 ptmはタスクの自然言語記述から候補プログラムを生成するために使用され、cbsプロシージャで正確な例ベースの仕様にマッチするプログラムを見つけるためのガイドとして使用される。
我々は、正規表現の領域とCSSセレクタの領域という2つのプログラミング領域のマルチモーダル合成システムのインスタンス化に、我々の組み合わせアプローチを利用する。
本評価は,最先端の特殊システムと比較して,我々のドメインに依存しないアプローチの有効性と,自然言語からのマルチモーダルプログラム合成と異なるプログラミング領域の例を提供するためのアプローチの汎用性を示す。
関連論文リスト
- Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Programming by Example and Text-to-Code Translation for Conversational
Code Generation [1.8447697408534178]
本稿では,実例によるプログラミングとテキスト・トゥ・コードシステムの統合手法を提案する。
MPaTHSは一般的なプログラムを合成するための自然言語インタフェースを提供する。
本稿では,タスク指向対話問題に適用可能なプログラム表現を提案する。
論文 参考訳(メタデータ) (2022-11-21T15:20:45Z) - Benchmarking Language Models for Code Syntax Understanding [79.11525961219591]
事前学習された言語モデルは、自然言語処理とプログラム理解の両方において素晴らしい性能を示している。
本研究では,プログラムの構文構造を特定するための,最先端の事前訓練モデルの最初の徹底的なベンチマークを行う。
この結果から,既存のプログラミング言語の事前学習手法の限界が指摘され,構文構造をモデル化することの重要性が示唆された。
論文 参考訳(メタデータ) (2022-10-26T04:47:18Z) - A Conversational Paradigm for Program Synthesis [110.94409515865867]
本稿では,大規模言語モデルを用いた対話型プログラム合成手法を提案する。
私たちは、自然言語とプログラミング言語のデータに基づいて、CodeGenと呼ばれる大規模な言語モデルのファミリーを訓練します。
本研究は,会話能力の出現と,提案した会話プログラム合成パラダイムの有効性を示すものである。
論文 参考訳(メタデータ) (2022-03-25T06:55:15Z) - Synchromesh: Reliable code generation from pre-trained language models [38.15391794443022]
コード生成のための事前学習モデルの信頼性を大幅に向上するフレームワークであるSynchromeshを提案する。
まず、TST(Target similarity Tuning)を使用して、トレーニングバンクから、セマンティックなサンプル選択の新しい方法を使用して、数ショットのサンプルを検索する。
次に、Synchromeshはサンプルをトレーニング済みの言語モデルに供給し、対象言語の有効なプログラムセットに出力を制約する一般的なフレームワークであるConstrained Semantic Decoding (CSD)を使用してプログラムをサンプリングする。
論文 参考訳(メタデータ) (2022-01-26T22:57:44Z) - Latent Execution for Neural Program Synthesis Beyond Domain-Specific
Languages [97.58968222942173]
入力出力の例からCプログラムを合成する第一歩を踏み出す。
特に,部分生成プログラムの実行を近似するために潜在表現を学習するLa Synthを提案する。
これらのプログラムのトレーニングにより,Karel と C のプログラム合成における予測性能がさらに向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T02:21:32Z) - Leveraging Language to Learn Program Abstractions and Search Heuristics [66.28391181268645]
LAPS(Language for Abstraction and Program Search)は、自然言語アノテーションを用いて、ライブラリとニューラルネットワークによる合成のための検索モデルの共同学習をガイドする手法である。
最先端のライブラリ学習システム(DreamCoder)に統合されると、LAPSは高品質なライブラリを生成し、検索効率と一般化を改善する。
論文 参考訳(メタデータ) (2021-06-18T15:08:47Z) - Representing Partial Programs with Blended Abstract Semantics [62.20775388513027]
プログラム合成エンジンにおける部分的なプログラム表現手法について紹介する。
モジュラーニューラルネットワークとして実装された近似実行モデルを学ぶ。
これらのハイブリッドニューロシンボリック表現は、実行誘導型シンセサイザーがより強力な言語構成を使うことができることを示す。
論文 参考訳(メタデータ) (2020-12-23T20:40:18Z) - Optimal Neural Program Synthesis from Multimodal Specifications [45.35689345004124]
マルチモーダルプログラム合成は、プログラム合成を挑戦的な設定に拡張する魅力的な方法である。
本稿では,ユーザが提供する制約を満たすプログラムを見つけることを目的とした,最適なニューラルシンセサイザー手法を提案する。
論文 参考訳(メタデータ) (2020-10-04T20:51:21Z) - Program Synthesis with Pragmatic Communication [28.24612900419843]
本研究では,プログラム合成タスクを合理的なコミュニケーションとしてモデル化した新しい帰納的バイアスを導入する。
ユーザスタディでは、エンドユーザの参加者が、非実用的なプログラムシンセサイザーよりも、より効果的に、実践的なプログラムシンセサイザーと通信することを発見した。
論文 参考訳(メタデータ) (2020-07-09T20:55:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。