論文の概要: Guided Sketch-Based Program Induction by Search Gradients
- arxiv url: http://arxiv.org/abs/2402.06990v1
- Date: Sat, 10 Feb 2024 16:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 18:07:58.797900
- Title: Guided Sketch-Based Program Induction by Search Gradients
- Title(参考訳): 探索勾配によるスケッチ型プログラムインダクション
- Authors: Ahmad Ayaz Amin
- Abstract要約: 本稿では,進化戦略を用いた探索勾配によるパラメータ化プログラムの学習フレームワークを提案する。
この定式化は、プログラマがプログラムのスケッチにタスク固有のコードを付与できるようにするため、従来のプログラム帰納法から逸脱する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many tasks can be easily solved using machine learning techniques. However,
some tasks cannot readily be solved using statistical models, requiring a
symbolic approach instead. Program induction is one of the ways that such tasks
can be solved by means of capturing an interpretable and generalizable
algorithm through training. However, contemporary approaches to program
induction are not sophisticated enough to readily be applied to various types
of tasks as they tend to be formulated as a single, all-encompassing model,
usually parameterized by neural networks. In an attempt to make program
induction a viable solution for many scenarios, we propose a framework for
learning parameterized programs via search gradients using evolution
strategies. This formulation departs from traditional program induction as it
allows for the programmer to impart task-specific code to the program 'sketch',
while also enjoying the benefits of accelerated learning through end-to-end
gradient-based optimization.
- Abstract(参考訳): 多くのタスクは機械学習技術を使って簡単に解決できる。
しかし、いくつかのタスクは統計モデルを使って簡単には解決できず、代わりにシンボリックアプローチが必要となる。
プログラム誘導は、トレーニングを通じて解釈可能で一般化可能なアルゴリズムをキャプチャすることで、そのようなタスクを解く方法の1つである。
しかしながら、プログラム誘導の現代的アプローチは、ニューラルネットワークによってパラメータ化される単一の全通過モデルとして定式化される傾向があるため、様々なタスクに容易に適用できるほど洗練されていない。
プログラム誘導を多くのシナリオで実現可能とする試みとして,進化戦略を用いた探索勾配によるパラメータ化プログラムの学習フレームワークを提案する。
この定式化は、プログラマがプログラムの「スケッチ」にタスク固有のコードを付与できる一方で、エンドツーエンドの勾配に基づく最適化による加速学習の利点を享受できるため、従来のプログラム帰納法から外れている。
関連論文リスト
- Optimising Distributions with Natural Gradient Surrogates [24.53732048133567]
本稿では,そのような問題に対処するための新しい手法を提案する。
本手法の適用と解釈できる既存手法の例をいくつか紹介し,多種多様な問題に適用するための新しい手法を提案する。
本稿では,最大推定法と変分推定法について述べる。
論文 参考訳(メタデータ) (2023-10-18T09:42:39Z) - Self-adaptive algorithms for quasiconvex programming and applications to
machine learning [0.0]
凸線探索技術や,軽微な仮定の下での汎用的アプローチを含まない,自己適応的なステップサイズ戦略を提案する。
提案手法は,いくつかの計算例から予備的な結果によって検証される。
大規模問題に対する提案手法の有効性を実証するため,機械学習実験に適用した。
論文 参考訳(メタデータ) (2022-12-13T05:30:29Z) - Multi-Objective Policy Gradients with Topological Constraints [108.10241442630289]
本稿では, PPOアルゴリズムの簡単な拡張により, TMDPにおけるポリシー勾配に対する新しいアルゴリズムを提案する。
シミュレーションと実ロボットの両方の目的を任意に並べた実世界の多目的ナビゲーション問題に対して,これを実証する。
論文 参考訳(メタデータ) (2022-09-15T07:22:58Z) - From Perception to Programs: Regularize, Overparameterize, and Amortize [21.221244694737134]
ニューラルネットによる知覚入力を低次元の解釈可能な表現に解析し、次に合成プログラムで処理するニューロシンボリックプログラム合成技術を開発した。
問題を緩和し,全モジュールを勾配勾配でエンドツーエンドに学習する手法について検討する。
このツールボックスは、勾配誘導型プログラム探索の安定性を改善し、入力を離散抽象として知覚する方法と、それらの抽象をプログラムとして象徴的に処理する方法の両方を学ぶ方法を提案する。
論文 参考訳(メタデータ) (2022-06-13T06:27:11Z) - Learning logic programs by combining programs [24.31242130341093]
我々は、小さな非分離型プログラムを学習し、それらを組み合わせるアプローチを導入する。
我々は制約駆動型LPシステムにアプローチを実装した。
ゲームプレイやプログラム合成など,複数の領域に対する実験により,既存のアプローチを劇的に上回る結果が得られた。
論文 参考訳(メタデータ) (2022-06-01T10:07:37Z) - Searching for More Efficient Dynamic Programs [61.79535031840558]
本稿では,プログラム変換の集合,変換プログラムの効率を評価するための単純な指標,およびこの指標を改善するための探索手順について述べる。
実際に、自動検索は初期プログラムの大幅な改善を見出すことができることを示す。
論文 参考訳(メタデータ) (2021-09-14T20:52:55Z) - SUPER-ADAM: Faster and Universal Framework of Adaptive Gradients [99.13839450032408]
一般的な問題を解決するための適応アルゴリズムのための普遍的な枠組みを設計することが望まれる。
特に,本フレームワークは,非収束的設定支援の下で適応的手法を提供する。
論文 参考訳(メタデータ) (2021-06-15T15:16:28Z) - Learning Differentiable Programs with Admissible Neural Heuristics [43.54820901841979]
ドメイン固有言語におけるプログラムとして表現される微分可能関数の学習問題について検討する。
我々は、この最適化問題を、プログラム構文のトップダウン導出を符号化した重み付きグラフの探索として構成する。
私たちの重要なイノベーションは、さまざまなニューラルネットワークのクラスを、プログラムの空間上の連続的な緩和と見なすことです。
論文 参考訳(メタデータ) (2020-07-23T16:07:39Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - Physarum Powered Differentiable Linear Programming Layers and
Applications [48.77235931652611]
一般線形プログラミング問題に対する効率的かつ微分可能な解法を提案する。
本稿では,ビデオセグメンテーションタスクとメタラーニングにおける問題解決手法について述べる。
論文 参考訳(メタデータ) (2020-04-30T01:50:37Z) - Regularizing Meta-Learning via Gradient Dropout [102.29924160341572]
メタ学習モデルは、メタ学習者が一般化するのに十分なトレーニングタスクがない場合、過度に適合する傾向がある。
本稿では,勾配に基づくメタ学習において過度に適合するリスクを軽減するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2020-04-13T10:47:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。