論文の概要: Neurosymbolic Methods for Rule Mining
- arxiv url: http://arxiv.org/abs/2408.05773v1
- Date: Sun, 11 Aug 2024 13:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 15:37:52.221595
- Title: Neurosymbolic Methods for Rule Mining
- Title(参考訳): ルールマイニングのためのニューロシンボリック手法
- Authors: Agnieszka Lawrynowicz, Luis Galarraga, Mehwish Alam, Berenice Jaulmes, Vaclav Zeman, Tomas Kliegr,
- Abstract要約: 本章では,本質的な背景情報から,ルールマイニングの問題に対処する。
本稿では,帰納論理プログラミング,経路サンプリングと一般化,線形プログラミングの3つのグループに分類されるルールマイニング手法について検討する。
- 参考スコア(独自算出の注目度): 1.352425155225249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this chapter, we address the problem of rule mining, beginning with essential background information, including measures of rule quality. We then explore various rule mining methodologies, categorized into three groups: inductive logic programming, path sampling and generalization, and linear programming. Following this, we delve into neurosymbolic methods, covering topics such as the integration of deep learning with rules, the use of embeddings for rule learning, and the application of large language models in rule learning.
- Abstract(参考訳): 本章では,ルール・マイニングの課題について,ルール・クオリティの尺度を含む基本的な背景情報から考察する。
次に、帰納論理プログラミング、経路サンプリングと一般化、線形プログラミングの3つのグループに分類されるルールマイニング手法について検討する。
その後、我々はニューロシンボリックな手法を探求し、深層学習とルールの統合、ルール学習への埋め込みの使用、ルール学習における大規模言語モデルの適用などについて論じる。
関連論文リスト
- Symbolic Working Memory Enhances Language Models for Complex Rule Application [87.34281749422756]
大規模言語モデル(LLM)は、顕著な推論性能を示しているが、多段階の推論に苦慮している。
本稿では,外部ワーキングメモリを用いたLLMの拡張と,ルール適用のためのニューロシンボリックフレームワークを提案する。
当社のフレームワークは,LLMベースのルール実装とシンボリックルールグラウンディングを反復的に実施する。
論文 参考訳(メタデータ) (2024-08-24T19:11:54Z) - Learning big logical rules by joining small rules [21.45295555809529]
我々は制約駆動システムにアプローチを実装し、制約解決器を使用してルールを効率的に結合する。
ゲームプレイやドラッグデザインなど多くの分野での実験を行い、100以上のリテラルでルールを学習できることを示しました。
論文 参考訳(メタデータ) (2024-01-29T15:09:40Z) - Enabling Large Language Models to Learn from Rules [99.16680531261987]
私たちは、人間がルールから学習することで、新しいタスクや知識を別の方法で学習できることにインスピレーションを受けています。
まず, LLMの強い文脈内能力を用いて, テキスト規則から知識を抽出する規則蒸留法を提案する。
実験の結果, LLMをルールから学習させることは, サンプルサイズと一般化能力の両方において, サンプルベース学習よりもはるかに効率的であることがわかった。
論文 参考訳(メタデータ) (2023-11-15T11:42:41Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - Evolving-to-Learn Reinforcement Learning Tasks with Spiking Neural
Networks [0.0]
本稿では,手作業に適したシナプス可塑性規則を進化させる進化的アルゴリズムを提案する。
我々は、XORとカートポールタスクをうまく解く学習ルールを見つけ、文学のベースラインルールより優れた新しい学習ルールを発見する。
論文 参考訳(メタデータ) (2022-02-24T19:07:23Z) - Neuro-Symbolic Hierarchical Rule Induction [12.610497441047395]
Inductive Logic Programming (ILP) 問題を解決するために, 効率的な解釈可能なニューロシンボリックモデルを提案する。
階層構造で組織されたメタルールの集合から構築されたこのモデルでは、メタルールの事実や体述と一致するように埋め込みを学習することで、一階規則が発明される。
我々は, 様々な課題(ILP, 視覚ゲノム, 強化学習)において, 最先端の手法に対して, モデルの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2021-12-26T17:02:14Z) - A Survey on Deep Semi-supervised Learning [51.26862262550445]
まず,既存の手法を分類した深層半指導学習の分類法を提案する。
次に、損失の種類、貢献度、アーキテクチャの違いの観点から、これらのメソッドを詳細に比較します。
論文 参考訳(メタデータ) (2021-02-28T16:22:58Z) - Learning Structured Declarative Rule Sets -- A Challenge for Deep
Discrete Learning [0.0]
帰納的ルール学習では、入力を組み合わせて新しい補助概念を学び、その後のルールによって入力として使用できる。
しかし、そのような能力を持つルール学習アルゴリズムの研究はまだ初期段階にあり、この分野における大きな進歩の鍵となる障害の1つである。
論文 参考訳(メタデータ) (2020-12-08T11:43:16Z) - RNNLogic: Learning Logic Rules for Reasoning on Knowledge Graphs [91.71504177786792]
本稿では知識グラフに基づく推論のための論理規則の学習について研究する。
論理規則は、予測に使用されるときに解釈可能な説明を提供するとともに、他のタスクに一般化することができる。
既存の手法は、検索スペースの検索の問題や、スパース報酬による非効率な最適化に悩まされている。
論文 参考訳(メタデータ) (2020-10-08T14:47:02Z) - Learning Compositional Rules via Neural Program Synthesis [67.62112086708859]
少数の例からルールシステム全体を学習するニューロシンボリックモデルを提案する。
入力からの出力を直接予測する代わりに、前述した例の集合を規定する規則の明示的な体系を誘導するようにモデルを訓練する。
論文 参考訳(メタデータ) (2020-03-12T01:06:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。