論文の概要: Learning Logic Programs by Discovering Higher-Order Abstractions
- arxiv url: http://arxiv.org/abs/2308.08334v1
- Date: Wed, 16 Aug 2023 12:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:35:58.514077
- Title: Learning Logic Programs by Discovering Higher-Order Abstractions
- Title(参考訳): 高次抽象化の発見による論理プログラムの学習
- Authors: C\'eline Hocquette, Sebastijan Duman\v{c}i\'c, Andrew Cropper
- Abstract要約: 本稿では,マップやフィルタ,折り畳みといった高次抽象概念の発見手法を提案する。
我々は,制約最適化問題として高次問題を定式化するSTEVIEにアプローチを実装した。
実験結果から,STEVIEは予測値に比較して,合成精度を27%向上し,学習時間を47%低減できることがわかった。
- 参考スコア(独自算出の注目度): 20.57989636488575
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Discovering novel abstractions is important for human-level AI. We introduce
an approach to discover higher-order abstractions, such as map, filter, and
fold. We focus on inductive logic programming, which induces logic programs
from examples and background knowledge. We introduce the higher-order
refactoring problem, where the goal is to compress a logic program by
introducing higher-order abstractions. We implement our approach in STEVIE,
which formulates the higher-order refactoring problem as a constraint
optimisation problem. Our experimental results on multiple domains, including
program synthesis and visual reasoning, show that, compared to no refactoring,
STEVIE can improve predictive accuracies by 27% and reduce learning times by
47%. We also show that STEVIE can discover abstractions that transfer to
different domains
- Abstract(参考訳): 人間のレベルのAIには、新しい抽象化を見つけることが重要です。
本稿では,マップやフィルタ,折り畳みといった高次抽象概念の発見手法を提案する。
我々は、実例と背景知識から論理プログラムを誘導する帰納的論理プログラミングに焦点を当てる。
我々は高階リファクタリング問題を導入し、高階抽象化を導入して論理プログラムを圧縮することを目的とする。
我々は,高階リファクタリング問題を制約最適化問題として定式化するSTEVIEにアプローチを実装した。
プログラム合成と視覚的推論を含む複数の領域に対する実験結果から,STEVIEはリファクタリングを伴わず,予測精度を27%向上し,学習時間を47%低減できることがわかった。
また、STEVIEは異なるドメインに転送する抽象化を発見できることを示す。
関連論文リスト
- Scalable Knowledge Refactoring using Constrained Optimisation [18.706442683121615]
提案手法は,従来の最先端手法よりも高速かつ圧縮性が高く,時には60%の高速化が可能であることを示す。
複数のドメインに対する実験結果から,従来の最先端手法よりも高速かつ圧縮性の高いプログラムを,場合によっては60%高速化できることが示された。
論文 参考訳(メタデータ) (2024-08-21T11:12:42Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Automatizing Software Cognitive Complexity Reduction through Integer
Linear Programming [1.1970409518725493]
近年,ソフトウェア認知複雑性の低減を最適化問題としてモデル化し,開発者を支援する手法を提案する。
このアプローチは、停止基準を満たすまでコード抽出操作のシーケンスを列挙する。結果として、コードの認知複雑性を所定のしきい値に減らすことができる最小限のコード抽出操作のシーケンスを返す。
論文 参考訳(メタデータ) (2024-02-08T10:53:00Z) - ReGAL: Refactoring Programs to Discover Generalizable Abstractions [59.05769810380928]
Generalizable Abstraction Learning (ReGAL)は、再利用可能な関数のライブラリをコード化して学習する手法である。
ReGALによって発見された共有関数ライブラリは、プログラムが様々な領域で容易に予測できることを示している。
CodeLlama-13Bでは、ReGALはLOGOで11.5%、日付理解で26.1%、TextCraftで8.1%という絶対精度が向上し、3つのドメインのうち2つでGPT-3.5を上回った。
論文 参考訳(メタデータ) (2024-01-29T18:45:30Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - End-to-end Algorithm Synthesis with Recurrent Networks: Logical
Extrapolation Without Overthinking [52.05847268235338]
機械学習システムが問題を過度に考えずに論理的外挿を行う方法を示す。
本稿では,問題インスタンスの明示的なコピーをメモリに保持して,それを忘れないようにするリコールアーキテクチャを提案する。
また、モデルが数に固有の行動を学ぶのを防ぎ、無期限に繰り返される行動を学ぶためにモデルをプッシュするプログレッシブトレーニングルーチンも採用しています。
論文 参考訳(メタデータ) (2022-02-11T18:43:28Z) - Towards Minimax Optimal Reinforcement Learning in Factored Markov
Decision Processes [53.72166325215299]
エピソード因子化マルコフ決定過程(FMDP)における最小強化学習について検討する。
第一に、分解された構造のリッチなクラスに対する最小限の後悔の保証を達成する。
2つ目は、少し悪い後悔をしながら、より良い計算複雑性を楽しみます。
論文 参考訳(メタデータ) (2020-06-24T00:50:17Z) - Knowledge Refactoring for Inductive Program Synthesis [37.54933305877746]
人間は知識をより効率的に利用するために常に知識を再構築する。
私たちのゴールは、機械学習システムに似た能力を提供することで、より効率的に学習できるようにすることです。
論文 参考訳(メタデータ) (2020-04-21T12:04:38Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。