論文の概要: Top-Down Synthesis for Library Learning
- arxiv url: http://arxiv.org/abs/2211.16605v1
- Date: Tue, 29 Nov 2022 21:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:43:03.730902
- Title: Top-Down Synthesis for Library Learning
- Title(参考訳): 図書館学習のためのトップダウン合成
- Authors: Matthew Bowers, Theo X. Olausson, Catherine Wong, Gabriel Grand,
Joshua B. Tenenbaum, Kevin Ellis, Armando Solar-Lezama
- Abstract要約: コーパス誘導トップダウン合成は、プログラムのコーパスから共通機能をキャプチャするライブラリ関数を合成するメカニズムである。
本稿では,この手法をStitchと呼ばれるツールに実装し,DreamCoderの最先端の推論ライブラリ学習アルゴリズムに対して評価する。
- 参考スコア(独自算出の注目度): 46.285220926554345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces corpus-guided top-down synthesis as a mechanism for
synthesizing library functions that capture common functionality from a corpus
of programs in a domain specific language (DSL). The algorithm builds
abstractions directly from initial DSL primitives, using syntactic pattern
matching of intermediate abstractions to intelligently prune the search space
and guide the algorithm towards abstractions that maximally capture shared
structures in the corpus. We present an implementation of the approach in a
tool called Stitch and evaluate it against the state-of-the-art deductive
library learning algorithm from DreamCoder. Our evaluation shows that Stitch is
3-4 orders of magnitude faster and uses 2 orders of magnitude less memory while
maintaining comparable or better library quality (as measured by
compressivity). We also demonstrate Stitch's scalability on corpora containing
hundreds of complex programs that are intractable with prior deductive
approaches and show empirically that it is robust to terminating the search
procedure early -- further allowing it to scale to challenging datasets by
means of early stopping.
- Abstract(参考訳): 本稿では,ドメイン固有言語(DSL)におけるプログラムのコーパスから共通機能をキャプチャするライブラリ関数の合成機構として,コーパス誘導トップダウン合成を提案する。
アルゴリズムは初期dslプリミティブから直接抽象化を構築し、中間抽象の構文パターンマッチングを使用して検索空間をインテリジェントにプルし、コーパス内の共有構造を最大にキャプチャする抽象化へとアルゴリズムを導く。
本稿では,この手法をStitchと呼ばれるツールに実装し,DreamCoderの最先端の推論ライブラリ学習アルゴリズムに対して評価する。
評価の結果,stitchは3-4桁高速でメモリ使用量も2桁少なく,ライブラリのクオリティ(圧縮率による測定値)は同等か良好なものとなっている。
また、Stitchのコーパスに数百の複雑なプログラムを含むスケーラビリティを実証し、早期に探索手順を終了させることが堅牢であることを実証的に示し、早期停止による挑戦的なデータセットへのスケーリングを可能にした。
関連論文リスト
- AbstractBeam: Enhancing Bottom-Up Program Synthesis using Library Learning [0.0]
AbstractBeamは、ライブラリ学習を活用することでLambdaBeamを強化するように設計された、新しいプログラム合成フレームワークである。
我々の実験は、AbstractBeamが整数リスト操作領域でLambdaBeamよりも統計的にかなり優れていることを示した。
論文 参考訳(メタデータ) (2024-05-27T08:31:12Z) - Sketch and shift: a robust decoder for compressive clustering [17.627195350266796]
圧縮学習は、大規模学習のメモリフットプリントを大幅に削減する、新たなアプローチである。
CL-OMPRよりも大幅に改善された代替デコーダを提案する。
提案アルゴリズムは,従来より10倍小さいMNISTデータセットのスケッチからクラスタリング情報を抽出することができる。
論文 参考訳(メタデータ) (2023-12-15T16:53:55Z) - LILO: Learning Interpretable Libraries by Compressing and Documenting Code [71.55208585024198]
LILOは、反復的に合成、圧縮、文書化を行う、ニューロシンボリックなフレームワークである。
LILOは、LLM誘導プログラム合成と、Stitchから自動化された最近のアルゴリズムの進歩を組み合わせたものである。
LILOのシンセサイザーが学習した抽象化を解釈し、デプロイするのを手助けすることで、AutoDocがパフォーマンスを向上させることが分かりました。
論文 参考訳(メタデータ) (2023-10-30T17:55:02Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code Summarization [76.57699934689468]
ニューラルモデルの性能を高めるために,デコーダ側で詳細なTokenレベル検索強化機構(Tram)を提案する。
文脈的コードセマンティクスの取得におけるトークンレベルの検索の課題を克服するために,コードセマンティクスを個々の要約トークンに統合することを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - ShapeCoder: Discovering Abstractions for Visual Programs from
Unstructured Primitives [44.01940125080666]
形状のデータセットを非構造化プリミティブで表現できる最初のシステムであるShapeCoderを提案する。
ShapeCoderは、ハイレベルな関係をキャプチャし、外部自由度を排除し、より良いデータセット圧縮を実現する抽象化ライブラリの発見方法を示す。
論文 参考訳(メタデータ) (2023-05-09T17:55:48Z) - Leveraging Language to Learn Program Abstractions and Search Heuristics [66.28391181268645]
LAPS(Language for Abstraction and Program Search)は、自然言語アノテーションを用いて、ライブラリとニューラルネットワークによる合成のための検索モデルの共同学習をガイドする手法である。
最先端のライブラリ学習システム(DreamCoder)に統合されると、LAPSは高品質なライブラリを生成し、検索効率と一般化を改善する。
論文 参考訳(メタデータ) (2021-06-18T15:08:47Z) - BUSTLE: Bottom-Up Program Synthesis Through Learning-Guided Exploration [72.88493072196094]
プログラムのボトムアップ検索に学習を活用する新しい合成手法を提案する。
特に、入力出力例のセットに基づいて、探索条件中の中間値の合成を優先順位付けするようにモデルを訓練する。
単純な教師付き学習アプローチであっても,学習とボトムアップ検索の組み合わせは極めて効果的であることを示す。
論文 参考訳(メタデータ) (2020-07-28T17:46:18Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。