論文の概要: Top Program Construction and Reduction for polynomial time
Meta-Interpretive Learning
- arxiv url: http://arxiv.org/abs/2101.05050v1
- Date: Wed, 13 Jan 2021 13:39:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 07:59:10.202303
- Title: Top Program Construction and Reduction for polynomial time
Meta-Interpretive Learning
- Title(参考訳): 多項式時間メタ解釈学習のためのトッププログラムの構築と削減
- Authors: Stassa Patsantzis, Stephen H. Muggleton
- Abstract要約: 指数的に増加する検索をTopプログラムの構築に置き換える方法を示す。
我々は,このアルゴリズムを,トッププログラムを構成する新しいMILシステムであるLouiseの基礎としてPrologに実装する。
我々は、グリッドワールドナビゲーション、グラフ接続性、文法学習データセットの実験において、最先端の検索ベースMILシステムMetagolと比較した。
- 参考スコア(独自算出の注目度): 8.680676599607125
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Meta-Interpretive Learners, like most ILP systems, learn by searching for a
correct hypothesis in the hypothesis space, the powerset of all constructible
clauses. We show how this exponentially-growing search can be replaced by the
construction of a Top program: the set of clauses in all correct hypotheses
that is itself a correct hypothesis. We give an algorithm for Top program
construction and show that it constructs a correct Top program in polynomial
time and from a finite number of examples. We implement our algorithm in Prolog
as the basis of a new MIL system, Louise, that constructs a Top program and
then reduces it by removing redundant clauses. We compare Louise to the
state-of-the-art search-based MIL system Metagol in experiments on grid world
navigation, graph connectedness and grammar learning datasets and find that
Louise improves on Metagol's predictive accuracy when the hypothesis space and
the target theory are both large, or when the hypothesis space does not include
a correct hypothesis because of "classification noise" in the form of
mislabelled examples. When the hypothesis space or the target theory are small,
Louise and Metagol perform equally well.
- Abstract(参考訳): メタ解釈学習者は、ほとんどのILPシステムと同様に、仮説空間における正しい仮説、すべての構成可能な節のパワーセットを探すことで学習する。
この指数関数的に増加する探索が、トッププログラムの構築によってどのように置き換えられるかを示す: 正しい仮説の全ての正しい仮説における節の集合は、それ自体が正しい仮説である。
そこで我々はTopプログラム構築のためのアルゴリズムを提案し、多項式時間と有限個の例から正しいTopプログラムを構築することを示す。
我々はPrologのアルゴリズムを新しいMILシステムであるLouiseの基盤として実装し、Topプログラムを構築し、冗長な節を削除してそれを減らす。
我々は、格子世界ナビゲーション、グラフ接続性、文法学習データセットの実験において、Louiseを最先端の検索ベースMILシステムであるMetagolと比較し、仮説空間とターゲット理論が共に大きい場合、あるいは仮説空間が「分類ノイズ」の形で正しい仮説を含まない場合、LouiseがMetagolの予測精度を改善することを発見した。
仮説空間や対象理論が小さいとき、ルイーズとメタゴールも同様にうまく機能する。
関連論文リスト
- Causal Discovery over High-Dimensional Structured Hypothesis Spaces with Causal Graph Partitioning [0.742246975663779]
因果発見により、一般化された方法で因果関係と効果関係の集合として機構を推測することができる。
提案アルゴリズムは,生物学的に調整された合成ネットワークやネットワークに対して,最大104ドルの変数に対して,同等の精度と解法を実現できることを示す。
論文 参考訳(メタデータ) (2024-06-10T15:08:14Z) - ATG: Benchmarking Automated Theorem Generation for Generative Language Models [83.93978859348313]
人間はより広範に複雑な数学的結果を探求するために新しい定理を開発することができる。
現在の生成言語モデル(LM)は、定理の自動証明において著しく改善されている。
本稿では,エージェントが価値ある(あるいは新しい)定理を自動生成できるかどうかを評価する自動定理生成ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-05-05T02:06:37Z) - A Geometric Notion of Causal Probing [91.14470073637236]
言語モデルの表現空間では、動詞数のような概念に関するすべての情報が線形部分空間に符号化される。
理想線型概念部分空間を特徴づける内在的基準のセットを与える。
LEACEは概念情報の約半分を含む1次元の部分空間を返す。
論文 参考訳(メタデータ) (2023-07-27T17:57:57Z) - TheoremQA: A Theorem-driven Question Answering dataset [100.39878559382694]
GPT-4のこれらの問題を解決する能力は非並列であり、Program-of-Thoughts Promptingの精度は51%である。
TheoremQAは、350の定理をカバーする800の高品質な質問を含むドメインの専門家によってキュレートされる。
論文 参考訳(メタデータ) (2023-05-21T17:51:35Z) - Learning logic programs by discovering where not to search [18.27510863075184]
仮説を探す前に、まず検索しない場所を見つけるアプローチを導入する」。
我々は与えられたBKを用いて、数が偶数と奇数の両方で成り立たないような仮説上の制約を発見する。
複数のドメインに対する実験により,本手法は学習時間を著しく短縮できることが示された。
論文 参考訳(メタデータ) (2022-02-20T12:32:03Z) - Rationales for Sequential Predictions [117.93025782838123]
シーケンスモデルは現代のNLPシステムにおいて重要な要素であるが、それらの予測は説明が難しい。
モデル説明は有理だが、個々のモデル予測を説明できる文脈のサブセットを考える。
この目的を近似する効率的なグリードアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-14T01:25:15Z) - Learning logic programs by explaining their failures [26.955785230358963]
本稿では,帰納論理プログラミングにおける障害説明手法を提案する。
仮説が失敗した場合、サブプログラムの失敗の観点からその失敗を説明する。
きめ細かい故障解析により、仮説空間上のきめ細かい制約を学習できることを示す。
論文 参考訳(メタデータ) (2021-02-18T14:32:20Z) - Empirically Verifying Hypotheses Using Reinforcement Learning [58.09414653169534]
本稿では,仮説検証をRL問題として定式化する。
我々は、世界の力学に関する仮説を前提として、仮説が真か偽かを予測するのに役立つ観測結果を生成することができるエージェントを構築することを目指している。
論文 参考訳(メタデータ) (2020-06-29T01:01:10Z) - L2R2: Leveraging Ranking for Abductive Reasoning [65.40375542988416]
学習システムの帰納的推論能力を評価するために,帰納的自然言語推論タスク(alpha$NLI)を提案する。
新たな$L2R2$アプローチは、Learning-to-rankフレームワークの下で提案されている。
ARTデータセットの実験は、公開リーダボードの最先端に到達します。
論文 参考訳(メタデータ) (2020-05-22T15:01:23Z) - Learning programs by learning from failures [26.955785230358963]
本稿では,障害からの学習という,帰納的論理プログラミング(ILP)アプローチについて述べる。
このアプローチでは、ILPシステムは学習問題を3つの段階(生成、テスト、制約)に分解する。
本稿では,回答セットプログラミングとPrologを組み合わせることで,この手法を実現するILPシステムであるPopperを紹介する。
論文 参考訳(メタデータ) (2020-05-05T14:55:07Z) - Learning large logic programs by going beyond entailment [18.27510863075184]
プログラムをインクリメンタルに構築するために、サンプル依存の損失関数によって誘導される最良優先探索を利用する新しいILPシステムであるBruteで、我々のアイデアを実装した。
実験の結果,Bruteは予測精度と学習時間で既存のILPシステムを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-04-21T09:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。