論文の概要: Neural Program Synthesis with a Differentiable Fixer
- arxiv url: http://arxiv.org/abs/2006.10924v1
- Date: Fri, 19 Jun 2020 01:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 03:39:06.930885
- Title: Neural Program Synthesis with a Differentiable Fixer
- Title(参考訳): 可変固定器を用いたニューラルプログラム合成
- Authors: Matej Balog, Rishabh Singh, Petros Maniatis, Charles Sutton
- Abstract要約: 本稿では,エンコーダとデコーダをベースとした合成アーキテクチャと,プログラムを識別可能な固定器を組み合わせた新しいプログラム合成手法を提案する。
RobustFillドメイン上でアーキテクチャをエンドツーエンドにトレーニングし、フィクスチャモジュールの追加によって、合成精度が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 44.48509453344902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new program synthesis approach that combines an encoder-decoder
based synthesis architecture with a differentiable program fixer. Our approach
is inspired from the fact that human developers seldom get their program
correct on the first attempt, and perform iterative testing-based program
fixing to get to the desired program functionality. Similarly, our approach
first learns a distribution over programs conditioned on an encoding of a set
of input-output examples, and then iteratively performs fix operations using
the differentiable fixer. The fixer takes as input the original examples and
the current program's outputs on example inputs, and generates a new
distribution over the programs with the goal of reducing the discrepancies
between the current program outputs and the desired example outputs. We train
our architecture end-to-end on the RobustFill domain, and show that the
addition of the fixer module leads to a significant improvement on synthesis
accuracy compared to using beam search.
- Abstract(参考訳): 本稿では,エンコーダ-デコーダベースの合成アーキテクチャと微分可能なプログラム固定器を組み合わせた新しいプログラム合成手法を提案する。
私たちのアプローチは、人間の開発者が最初の試みでプログラムを正すことがほとんどなく、必要なプログラム機能に到達するために反復的なテストベースのプログラム修正を行うという事実にインスパイアされています。
同様に、本手法はまず、入力出力サンプルの符号化に条件付きプログラム上の分布を学習し、次に微分可能な固定器を用いて反復的に修正操作を行う。
固定子は、元の例と現在のプログラムの出力を例入力で入力し、現在のプログラム出力と所望の例出力との相違を減らすことを目的として、プログラム上の新しい分布を生成する。
我々は,ロバストフィルドメイン上でエンドツーエンドのアーキテクチャをトレーニングし,固定モジュールの追加により,ビーム探索を用いた場合と比較して合成精度が大幅に向上することを示す。
関連論文リスト
- Hierarchical Neural Program Synthesis [19.94176152035497]
プログラム合成は、与えられたタスク仕様を満たす人間可読プログラムを自動構築することを目的としている。
プログラムを階層的に構成することでプログラムを合成するスケーラブルなプログラム合成フレームワークを提案する。
入力/出力ペアを持つ文字列変換領域において,提案するフレームワークを広範囲に評価する。
論文 参考訳(メタデータ) (2023-03-09T18:20:07Z) - Learning from Self-Sampled Correct and Partially-Correct Programs [96.66452896657991]
そこで本研究では,モデルが学習中にサンプリングを行い,自己サンプリングされた完全正当プログラムと部分正当プログラムの両方から学習することを提案する。
自己サンプリング型プログラムと部分修正型プログラムを併用することで,学習とサンプリングプロセスのガイドに役立てることができることを示す。
提案手法は,MLEを用いた単一の参照プログラムからの学習と比較して,パス@kの性能を3.1%から12.3%向上させる。
論文 参考訳(メタデータ) (2022-05-28T03:31:07Z) - Recent Developments in Program Synthesis with Evolutionary Algorithms [1.8047694351309207]
関連する進化的プログラム合成手法を同定し,その性能を詳細に解析する。
私たちが特定する最も影響力のあるアプローチは、スタックベース、文法誘導、および線形遺伝プログラミングである。
今後の研究のために、研究者は、プログラムのアウトプットを使用して、ソリューションの品質を評価するだけでなく、ソリューションへの道を開くことを奨励します。
論文 参考訳(メタデータ) (2021-08-27T11:38:27Z) - Latent Execution for Neural Program Synthesis Beyond Domain-Specific
Languages [97.58968222942173]
入力出力の例からCプログラムを合成する第一歩を踏み出す。
特に,部分生成プログラムの実行を近似するために潜在表現を学習するLa Synthを提案する。
これらのプログラムのトレーニングにより,Karel と C のプログラム合成における予測性能がさらに向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T02:21:32Z) - Learning to Combine Per-Example Solutions for Neural Program Synthesis [35.0204840620086]
ほとんどの学習ベースのアプローチは、一度にすべての例を満たすプログラムを見つけようとします。
a) 1つの例のみを満たすプログラムを見つけ、(b) 例ごとのソリューションを活用して、すべての例を満たすプログラムを生成する。
論文 参考訳(メタデータ) (2021-06-14T05:48:12Z) - Latent Programmer: Discrete Latent Codes for Program Synthesis [56.37993487589351]
プログラム合成や文書要約などの多くのシーケンス学習タスクにおいて、重要な問題は出力シーケンスの広い空間を探索することである。
本稿では,検索対象とする出力の表現を学習することを提案する。
本稿では,まず入力/出力サンプルから離散潜在コードを予測するプログラム合成手法であるemphLatent Programmerを紹介し,そのプログラムを対象言語で生成する。
論文 参考訳(メタデータ) (2020-12-01T10:11:35Z) - Synthesize, Execute and Debug: Learning to Repair for Neural Program
Synthesis [81.54148730967394]
本稿では,合成,実行,デバッグの段階を組み込んだニューラルネットワーク生成フレームワークであるSEDを提案する。
SEDはまず、神経プログラムシンセサイザーコンポーネントを使用して初期プログラムを生成し、その後、神経プログラムデバッガを使用して生成されたプログラムを反復的に修復する。
挑戦的な入出力プログラム合成ベンチマークであるKarelでは、SEDはニューラルプログラムシンセサイザー自体のエラー率をかなりのマージンで削減し、デコードのための標準ビームサーチより優れている。
論文 参考訳(メタデータ) (2020-07-16T04:15:47Z) - Synthetic Datasets for Neural Program Synthesis [66.20924952964117]
本稿では,プログラムと仕様の両方で合成データ分布のバイアスを制御し,評価するための新しい手法を提案する。
そこで我々は,Karel DSLと小さなCalculator DSLを用いて,これらの分布上でのディープネットワークのトレーニングにより,分散一般化性能が向上することが実証された。
論文 参考訳(メタデータ) (2019-12-27T21:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。