論文の概要: Learning programs by learning from failures
- arxiv url: http://arxiv.org/abs/2005.02259v3
- Date: Wed, 25 Nov 2020 08:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:22:36.416547
- Title: Learning programs by learning from failures
- Title(参考訳): 失敗から学ぶことによる学習プログラム
- Authors: Andrew Cropper and Rolf Morel
- Abstract要約: 本稿では,障害からの学習という,帰納的論理プログラミング(ILP)アプローチについて述べる。
このアプローチでは、ILPシステムは学習問題を3つの段階(生成、テスト、制約)に分解する。
本稿では,回答セットプログラミングとPrologを組み合わせることで,この手法を実現するILPシステムであるPopperを紹介する。
- 参考スコア(独自算出の注目度): 26.955785230358963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe an inductive logic programming (ILP) approach called learning
from failures. In this approach, an ILP system (the learner) decomposes the
learning problem into three separate stages: generate, test, and constrain. In
the generate stage, the learner generates a hypothesis (a logic program) that
satisfies a set of hypothesis constraints (constraints on the syntactic form of
hypotheses). In the test stage, the learner tests the hypothesis against
training examples. A hypothesis fails when it does not entail all the positive
examples or entails a negative example. If a hypothesis fails, then, in the
constrain stage, the learner learns constraints from the failed hypothesis to
prune the hypothesis space, i.e. to constrain subsequent hypothesis generation.
For instance, if a hypothesis is too general (entails a negative example), the
constraints prune generalisations of the hypothesis. If a hypothesis is too
specific (does not entail all the positive examples), the constraints prune
specialisations of the hypothesis. This loop repeats until either (i) the
learner finds a hypothesis that entails all the positive and none of the
negative examples, or (ii) there are no more hypotheses to test. We introduce
Popper, an ILP system that implements this approach by combining answer set
programming and Prolog. Popper supports infinite problem domains, reasoning
about lists and numbers, learning textually minimal programs, and learning
recursive programs. Our experimental results on three domains (toy game
problems, robot strategies, and list transformations) show that (i) constraints
drastically improve learning performance, and (ii) Popper can outperform
existing ILP systems, both in terms of predictive accuracies and learning
times.
- Abstract(参考訳): 我々は,ilp (inductive logic programming) アプローチである learning from failures について述べる。
このアプローチでは、ILPシステム(学習者)は学習問題を3つの段階(生成、テスト、制約)に分解する。
生成段階において、学習者は、一連の仮説制約(仮説の構文形式に関する制約)を満たす仮説(論理プログラム)を生成する。
テストステージでは、学習者は仮説をトレーニング例に対してテストする。
仮説は正の例をすべて含まないか、負の例を含まない場合に失敗する。
仮説が失敗した場合、制約段階において、学習者は失敗仮説から制約を学び、仮説空間、すなわちその後の仮説生成を制約する。
例えば、仮説があまりにも一般的すぎる場合(負の例を含む)、その制約は仮説の一般化を損なう。
仮説が具体的すぎる場合(正の例をすべて含まない)、その制約は仮説の特殊化を引き起こす。
このループはどちらかまで繰り返す
(i) 学習者は、肯定的かつ否定的な例を全く含まない仮説を見つけるか、又は
(ii) もう試験すべき仮説はない。
本稿では,このアプローチを解集合プログラミングとprologを組み合わせることで実装したlppシステムpopperを紹介する。
Popperは無限の問題領域をサポートし、リストと数値を推論し、テキストで最小限のプログラムを学習し、再帰的なプログラムを学習する。
3つの領域(トイゲーム問題、ロボット戦略、リスト変換)に関する実験結果からは、そのことが分かる。
(i)制約は、学習性能を大幅に向上させ、
(II)Popperは予測精度と学習時間の両方において既存のILPシステムより優れている。
関連論文リスト
- Computable learning of natural hypothesis classes [0.0]
最近、PACが学習可能であるが、計算可能でない仮説クラスが与えられた。
計算可能性理論のon-a-cone 機械を用いて、仮説クラスが計算可能リスト化可能であるような軽微な仮定の下では、学習可能な自然仮説クラスは計算可能リスト化可能であることを証明する。
論文 参考訳(メタデータ) (2024-07-23T17:26:38Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Increasing Probability Mass on Answer Choices Does Not Always Improve
Accuracy [60.18632773935895]
同一の意味を持つ複数の曲面に確率質量を分散させることは、モデルの真の性能の過小評価を引き起こすと考えられている。
我々はSFCの数学的形式論を提案し、初めてその影響を定量化し、束縛することができる。
提案手法は,各回答選択の確率質量をaで増加させるという単純な方法であり,プロンプトに含め,bに含めた確率質量をbで増加させる手法である。
論文 参考訳(メタデータ) (2023-05-24T00:27:00Z) - Learning logic programs by discovering where not to search [18.27510863075184]
仮説を探す前に、まず検索しない場所を見つけるアプローチを導入する」。
我々は与えられたBKを用いて、数が偶数と奇数の両方で成り立たないような仮説上の制約を発見する。
複数のドメインに対する実験により,本手法は学習時間を著しく短縮できることが示された。
論文 参考訳(メタデータ) (2022-02-20T12:32:03Z) - Learning Logic Programs From Noisy Failures [0.0]
本稿では,以前に導入した障害学習(LFF)アプローチのノイズハンドリングである,障害アプローチからILPへの緩和学習を紹介する。
また、この緩和されたアプローチを実装し、既存のPopperシステムの変更である、新しいノイズポッパーLPシステムについても紹介する。
論文 参考訳(メタデータ) (2021-12-28T16:48:00Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Understanding the Under-Coverage Bias in Uncertainty Estimation [58.03725169462616]
量子レグレッションは、現実の望ましいカバレッジレベルよりもアンファンダーカバー(enmphunder-cover)する傾向がある。
我々は、量子レグレッションが固有のアンダーカバーバイアスに悩まされていることを証明している。
我々の理論は、この過大被覆バイアスが特定の高次元パラメータ推定誤差に起因することを明らかにしている。
論文 参考訳(メタデータ) (2021-06-10T06:11:55Z) - Learning logic programs by explaining their failures [26.955785230358963]
本稿では,帰納論理プログラミングにおける障害説明手法を提案する。
仮説が失敗した場合、サブプログラムの失敗の観点からその失敗を説明する。
きめ細かい故障解析により、仮説空間上のきめ細かい制約を学習できることを示す。
論文 参考訳(メタデータ) (2021-02-18T14:32:20Z) - Empirically Verifying Hypotheses Using Reinforcement Learning [58.09414653169534]
本稿では,仮説検証をRL問題として定式化する。
我々は、世界の力学に関する仮説を前提として、仮説が真か偽かを予測するのに役立つ観測結果を生成することができるエージェントを構築することを目指している。
論文 参考訳(メタデータ) (2020-06-29T01:01:10Z) - L2R2: Leveraging Ranking for Abductive Reasoning [65.40375542988416]
学習システムの帰納的推論能力を評価するために,帰納的自然言語推論タスク(alpha$NLI)を提案する。
新たな$L2R2$アプローチは、Learning-to-rankフレームワークの下で提案されている。
ARTデータセットの実験は、公開リーダボードの最先端に到達します。
論文 参考訳(メタデータ) (2020-05-22T15:01:23Z) - Learning large logic programs by going beyond entailment [18.27510863075184]
プログラムをインクリメンタルに構築するために、サンプル依存の損失関数によって誘導される最良優先探索を利用する新しいILPシステムであるBruteで、我々のアイデアを実装した。
実験の結果,Bruteは予測精度と学習時間で既存のILPシステムを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-04-21T09:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。