論文の概要: Learning to Combine Per-Example Solutions for Neural Program Synthesis
- arxiv url: http://arxiv.org/abs/2106.07175v1
- Date: Mon, 14 Jun 2021 05:48:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:29:56.617673
- Title: Learning to Combine Per-Example Solutions for Neural Program Synthesis
- Title(参考訳): ニューラルプログラム合成のためのサンプルごとの解の組み合わせ学習
- Authors: Disha Shrivastava, Hugo Larochelle, Daniel Tarlow
- Abstract要約: ほとんどの学習ベースのアプローチは、一度にすべての例を満たすプログラムを見つけようとします。
a) 1つの例のみを満たすプログラムを見つけ、(b) 例ごとのソリューションを活用して、すべての例を満たすプログラムを生成する。
- 参考スコア(独自算出の注目度): 35.0204840620086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of program synthesis from examples is to find a computer program
that is consistent with a given set of input-output examples. Most
learning-based approaches try to find a program that satisfies all examples at
once. Our work, by contrast, considers an approach that breaks the problem into
two stages: (a) find programs that satisfy only one example, and (b) leverage
these per-example solutions to yield a program that satisfies all examples. We
introduce the Cross Aggregator neural network module based on a multi-head
attention mechanism that learns to combine the cues present in these
per-example solutions to synthesize a global solution. Evaluation across
programs of different lengths and under two different experimental settings
reveal that when given the same time budget, our technique significantly
improves the success rate over PCCoder arXiv:1809.04682v2 [cs.LG] and other
ablation baselines. The code, data and trained models for our work can be found
at https://github.com/shrivastavadisha/N-PEPS.
- Abstract(参考訳): 例からのプログラム合成の目標は、与えられた入出力例のセットと一致するコンピュータプログラムを見つけることである。
ほとんどの学習ベースのアプローチは、一度にすべての例を満たすプログラムを見つけようとします。
対照的に、我々の研究は問題を2段階に分割するアプローチを考察している: (a) 1つの例のみを満たすプログラムを見つけ、 (b) 例ごとのソリューションを活用して全ての例を満たすプログラムを得る。
マルチヘッドアテンション機構をベースとしたCross Aggregatorニューラルネットモジュールを導入し、これらのサンプルごとのソリューションに存在するキューを組み合わせることで、グローバルなソリューションを合成する。
異なる長さのプログラムと2つの異なる実験環境での評価により、同じ時間予算が与えられると、pccoder arxiv:1809.04682v2[cs.lg]や他のアブレーションベースラインよりも成功率が著しく向上することが明らかとなった。
私たちの仕事のコード、データ、トレーニングされたモデルは、https://github.com/shrivastavadisha/n-pepsにあります。
関連論文リスト
- Generating Pragmatic Examples to Train Neural Program Synthesizers [20.819451354452085]
優れたシンセサイザーは、与えられたサンプルセットと整合した多くのプログラムから意図したプログラムを選択する必要がある。
本稿では,ニューラルネットワークを用いた新しい検索手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T20:53:00Z) - CORE: Common Random Reconstruction for Distributed Optimization with
Provable Low Communication Complexity [110.50364486645852]
コミュニケーションの複雑さは、トレーニングをスピードアップし、マシン番号をスケールアップする上で、大きなボトルネックになっています。
本稿では,機械間で送信される情報を圧縮するための共通Om REOmを提案する。
論文 参考訳(メタデータ) (2023-09-23T08:45:27Z) - Turaco: Complexity-Guided Data Sampling for Training Neural Surrogates
of Programs [14.940174578659603]
本稿では,ニューラルネットワークに基づくプログラムのサロゲートをトレーニングするための,データセットのサンプリング手法を提案する。
まず,プログラムの入力空間の各領域からのサンプルデータの割合を,対応する実行パスのサロゲートを学習する複雑性に基づいて特徴付ける。
これらの結果を実世界のプログラムで評価し,複雑性誘導サンプリングが精度を実証的に向上させることを示した。
論文 参考訳(メタデータ) (2023-09-21T01:59:20Z) - Learning from Self-Sampled Correct and Partially-Correct Programs [96.66452896657991]
そこで本研究では,モデルが学習中にサンプリングを行い,自己サンプリングされた完全正当プログラムと部分正当プログラムの両方から学習することを提案する。
自己サンプリング型プログラムと部分修正型プログラムを併用することで,学習とサンプリングプロセスのガイドに役立てることができることを示す。
提案手法は,MLEを用いた単一の参照プログラムからの学習と比較して,パス@kの性能を3.1%から12.3%向上させる。
論文 参考訳(メタデータ) (2022-05-28T03:31:07Z) - Recent Developments in Program Synthesis with Evolutionary Algorithms [1.8047694351309207]
関連する進化的プログラム合成手法を同定し,その性能を詳細に解析する。
私たちが特定する最も影響力のあるアプローチは、スタックベース、文法誘導、および線形遺伝プログラミングである。
今後の研究のために、研究者は、プログラムのアウトプットを使用して、ソリューションの品質を評価するだけでなく、ソリューションへの道を開くことを奨励します。
論文 参考訳(メタデータ) (2021-08-27T11:38:27Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - BUSTLE: Bottom-Up Program Synthesis Through Learning-Guided Exploration [72.88493072196094]
プログラムのボトムアップ検索に学習を活用する新しい合成手法を提案する。
特に、入力出力例のセットに基づいて、探索条件中の中間値の合成を優先順位付けするようにモデルを訓練する。
単純な教師付き学習アプローチであっても,学習とボトムアップ検索の組み合わせは極めて効果的であることを示す。
論文 参考訳(メタデータ) (2020-07-28T17:46:18Z) - Neural Program Synthesis with a Differentiable Fixer [44.48509453344902]
本稿では,エンコーダとデコーダをベースとした合成アーキテクチャと,プログラムを識別可能な固定器を組み合わせた新しいプログラム合成手法を提案する。
RobustFillドメイン上でアーキテクチャをエンドツーエンドにトレーニングし、フィクスチャモジュールの追加によって、合成精度が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-06-19T01:49:46Z) - Creating Synthetic Datasets via Evolution for Neural Program Synthesis [77.34726150561087]
いくつかのプログラム合成手法は、ランダムに生成された例と異なるデータ分布によく一般化されていることを示す。
本稿では, 合成データ分布のバイアスを制御し, 現在の手法より優れていることを示すための, 新たな敵対的手法を提案する。
論文 参考訳(メタデータ) (2020-03-23T18:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。