論文の概要: CrossBeam: Learning to Search in Bottom-Up Program Synthesis
- arxiv url: http://arxiv.org/abs/2203.10452v1
- Date: Sun, 20 Mar 2022 04:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 18:43:58.708041
- Title: CrossBeam: Learning to Search in Bottom-Up Program Synthesis
- Title(参考訳): CrossBeam: ボトムアッププログラム合成における検索学習
- Authors: Kensen Shi, Hanjun Dai, Kevin Ellis, Charles Sutton
- Abstract要約: ボトムアップ合成のためのハンズオン検索ポリシーを学習するためのニューラルネットワークのトレーニングを提案する。
私たちのアプローチは、CrossBeamと呼ばれ、ニューラルモデルを使用して、以前に探索されたプログラムを新しいプログラムに組み合わせる方法を選択します。
我々はCrossBeamが効率的に検索することを学び、最先端技術と比較してプログラム空間のより小さな部分を探索する。
- 参考スコア(独自算出の注目度): 51.37514793318815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many approaches to program synthesis perform a search within an enormous
space of programs to find one that satisfies a given specification. Prior works
have used neural models to guide combinatorial search algorithms, but such
approaches still explore a huge portion of the search space and quickly become
intractable as the size of the desired program increases. To tame the search
space blowup, we propose training a neural model to learn a hands-on search
policy for bottom-up synthesis, instead of relying on a combinatorial search
algorithm. Our approach, called CrossBeam, uses the neural model to choose how
to combine previously-explored programs into new programs, taking into account
the search history and partial program executions. Motivated by work in
structured prediction on learning to search, CrossBeam is trained on-policy
using data extracted from its own bottom-up searches on training tasks. We
evaluate CrossBeam in two very different domains, string manipulation and logic
programming. We observe that CrossBeam learns to search efficiently, exploring
much smaller portions of the program space compared to the state-of-the-art.
- Abstract(参考訳): プログラム合成の多くのアプローチは、与えられた仕様を満たすものを見つけるためにプログラムの膨大な空間内で探索を実行する。
以前の研究では、組合せ探索アルゴリズムのガイドにニューラルネットワークを用いたが、そのようなアプローチは依然として検索空間の大部分を探索し、所望のプログラムのサイズが大きくなるとすぐに難解になる。
探索空間の爆発を抑えるため,組合せ探索アルゴリズムに頼らず,ボトムアップ合成のためのハンズオン探索ポリシーを学習するためのニューラルネットワークのトレーニングを提案する。
われわれのアプローチはCrossBeamと呼ばれ、ニューラルモデルを用いて、探索されたプログラムを新しいプログラムに組み合わせる方法を選択し、検索履歴と部分的なプログラム実行を考慮に入れている。
検索の学習に関する構造化予測の仕事によって動機づけられたcrossbeamは、トレーニングタスクのボトムアップ検索から抽出されたデータを使用して、オンポリシーを訓練する。
クロスビームを2つの異なる領域、文字列操作と論理プログラミングで評価する。
我々はCrossBeamが効率的に検索することを学び、最先端と比較してプログラム空間のより小さな部分を探索する。
関連論文リスト
- Searching Latent Program Spaces [0.0]
本研究では,連続空間における潜伏プログラム上の分布を学習し,効率的な探索とテスト時間適応を可能にするプログラム誘導アルゴリズムを提案する。
テスト時間適応機構を利用して、トレーニング分布を超えて一般化し、目に見えないタスクに適応できることを示す。
論文 参考訳(メタデータ) (2024-11-13T15:50:32Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - Bayesian Program Learning by Decompiling Amortized Knowledge [50.960612835957875]
本稿では,ニューラルサーチポリシーを直接活用し,その記憶された知識を効果的に「分解」し,関連するプログラムコンポーネントを抽出する,新たな学習手法を提案する。
これにより、より強力な償却推論が実現され、探索幅を減らすために学習した償却知識も探索深度を減らすために使用されるようになった。
論文 参考訳(メタデータ) (2023-06-13T15:35:01Z) - RF-Next: Efficient Receptive Field Search for Convolutional Neural
Networks [86.6139619721343]
そこで本研究では,グローバル・ローカル・サーチ手法を用いて,より優れた受容場の組み合わせを求める。
我々の検索手法は, 粗い組み合わせを見つけるためにグローバル検索と, 洗練された受容場の組み合わせを得るために局所探索の両方を利用する。
我々のRF-Nextモデルは、様々なモデルに受容場探索を接続し、多くのタスクのパフォーマンスを高める。
論文 参考訳(メタデータ) (2022-06-14T06:56:26Z) - Exploring Complicated Search Spaces with Interleaving-Free Sampling [127.07551427957362]
本稿では,長距離接続を伴う複雑な検索空間上に探索アルゴリズムを構築する。
我々はtextbfIF-NAS という単純なアルゴリズムを提案し、異なるサブネットワークを構築するために周期的なサンプリング戦略を実行する。
提案した探索空間において、IF-NASはランダムサンプリングと従来の重み付け検索のアルゴリズムを有意差で上回っている。
論文 参考訳(メタデータ) (2021-12-05T06:42:48Z) - Fast Line Search for Multi-Task Learning [0.0]
マルチタスク学習における行探索アルゴリズムの新しいアイデアを提案する。
この考え方は、ステップサイズを見つけるためにパラメータ空間の代わりに潜在表現空間を使用することである。
本稿では,MNIST,CIFAR-10,Cityscapesタスクの学習速度を一定とする古典的バックトラック法と勾配法を比較した。
論文 参考訳(メタデータ) (2021-10-02T21:02:29Z) - Task-Aware Neural Architecture Search [33.11791812491669]
本稿では,ベースタスクのモデル辞書と対象タスクと辞書の原子との類似性を利用して,ニューラルアーキテクチャ探索のための新しいフレームワークを提案する。
勾配に基づく探索アルゴリズムを導入することにより、ネットワークを完全に訓練することなく、検索空間の最良のアーキテクチャを評価し、発見することができる。
論文 参考訳(メタデータ) (2020-10-27T00:10:40Z) - BUSTLE: Bottom-Up Program Synthesis Through Learning-Guided Exploration [72.88493072196094]
プログラムのボトムアップ検索に学習を活用する新しい合成手法を提案する。
特に、入力出力例のセットに基づいて、探索条件中の中間値の合成を優先順位付けするようにモデルを訓練する。
単純な教師付き学習アプローチであっても,学習とボトムアップ検索の組み合わせは極めて効果的であることを示す。
論文 参考訳(メタデータ) (2020-07-28T17:46:18Z) - Learning Differentiable Programs with Admissible Neural Heuristics [43.54820901841979]
ドメイン固有言語におけるプログラムとして表現される微分可能関数の学習問題について検討する。
我々は、この最適化問題を、プログラム構文のトップダウン導出を符号化した重み付きグラフの探索として構成する。
私たちの重要なイノベーションは、さまざまなニューラルネットワークのクラスを、プログラムの空間上の連続的な緩和と見なすことです。
論文 参考訳(メタデータ) (2020-07-23T16:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。