論文の概要: Efficiently Learning Probabilistic Logical Models by Cheaply Ranking Mined Rules
- arxiv url: http://arxiv.org/abs/2409.16238v2
- Date: Fri, 28 Feb 2025 16:29:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:38:23.430640
- Title: Efficiently Learning Probabilistic Logical Models by Cheaply Ranking Mined Rules
- Title(参考訳): マイニングルールの迅速ランク付けによる確率論理モデルの効率的な学習
- Authors: Jonathan Feldstein, Dominic Phillips, Efthymia Tsamoura,
- Abstract要約: 我々は、論理規則の精度とリコールを導入し、それらの構成をルールユーティリティとして定義する。
また、リレーショナルデータから論理理論を学習するためのスケーラブルなフレームワークであるSPECTRUMを紹介する。
- 参考スコア(独自算出の注目度): 9.303501974597548
- License:
- Abstract: Probabilistic logical models are a core component of neurosymbolic AI and are important in their own right for tasks that require high explainability. Unlike neural networks, logical theories that underlie the model are often handcrafted using domain expertise, making their development costly and prone to errors. While there are algorithms that learn logical theories from data, they are generally prohibitively expensive, limiting their applicability in real-world settings. Here, we introduce precision and recall for logical rules and define their composition as rule utility -- a cost-effective measure of the predictive power of logical theories. We also introduce SPECTRUM, a scalable framework for learning logical theories from relational data. Its scalability derives from a linear-time algorithm that mines recurrent subgraphs in the data graph along with a second algorithm that, using the cheap utility measure, efficiently ranks rules derived from these subgraphs. Finally, we prove theoretical guarantees on the utility of the learnt logical theory. As a result, we demonstrate across various tasks that SPECTRUM scales to larger datasets, often learning more accurate logical theories on CPUs in < 1% the runtime of SOTA neural network approaches on GPUs.
- Abstract(参考訳): 確率論的論理モデル(probabilistic logic model)は、ニューロシンボリックAIの中核的なコンポーネントであり、高い説明可能性を必要とするタスクに対して、彼ら自身の権利において重要である。
ニューラルネットワークとは異なり、モデルの根底にある論理理論は、しばしばドメインの専門知識を使って手作りされ、開発にコストがかかりエラーが生じる。
データから論理理論を学ぶアルゴリズムはあるが、一般的には高価であり、現実の環境での適用性を制限する。
ここでは、論理則の精度とリコールを導入し、それらの構成をルールユーティリティとして定義する。
また、リレーショナルデータから論理理論を学習するためのスケーラブルなフレームワークであるSPECTRUMを紹介する。
そのスケーラビリティは、データグラフ内の繰り返しサブグラフをマイニングする線形時間アルゴリズムと、安価なユーティリティ尺度を用いてこれらのサブグラフから導出されるルールを効率的にランク付けする第2のアルゴリズムに由来する。
最後に,学習論理理論の有用性を理論的に保証する。
その結果、SPECTRUMがより大きなデータセットにスケールするさまざまなタスクを実証し、多くの場合、CPU上のより正確な論理理論を、GPU上でのSOTAニューラルネットワークのランタイムの1%以下で学習する。
関連論文リスト
- Standard Neural Computation Alone Is Insufficient for Logical Intelligence [3.230778132936486]
論理的推論を統合するためには、標準的なニューラルネットワーク層を根本的に再考する必要がある、と我々は主張する。
論理演算の微分可能な近似を組み込んだ論理ニューラルネットワーク(LNU)モジュラーコンポーネントを提唱する。
論文 参考訳(メタデータ) (2025-02-04T09:07:45Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Principled and Efficient Motif Finding for Structure Learning of Lifted
Graphical Models [5.317624228510748]
構造学習は、ニューロシンボリックAIと統計リレーショナル学習の分野の中心となるAIの中核的な問題である。
昇降型グラフィカルモデルにおける構造モチーフのマイニングのための第一原理的アプローチを提案する。
我々は,最先端構造学習の手法を,精度で最大6%,実行時の最大80%で上回ることを示す。
論文 参考訳(メタデータ) (2023-02-09T12:21:55Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Embedding Symbolic Temporal Knowledge into Deep Sequential Models [21.45383857094518]
時系列や時系列はロボットのタスク、例えば活動認識や模倣学習で発生することが多い。
深層ニューラルネットワーク(DNN)は、十分なトレーニングデータと計算リソースを与えられたシーケンスを処理する効果的なデータ駆動手法として登場した。
グラフニューラルネットワークを用いて定式から生成された自動機械のセマンティックな埋め込みを構築する。実験により、これらの学習された埋め込みは、シーケンシャルな動作認識や模倣学習などの下流ロボットタスクの改善につながることが示された。
論文 参考訳(メタデータ) (2021-01-28T13:17:46Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - RNNLogic: Learning Logic Rules for Reasoning on Knowledge Graphs [91.71504177786792]
本稿では知識グラフに基づく推論のための論理規則の学習について研究する。
論理規則は、予測に使用されるときに解釈可能な説明を提供するとともに、他のタスクに一般化することができる。
既存の手法は、検索スペースの検索の問題や、スパース報酬による非効率な最適化に悩まされている。
論文 参考訳(メタデータ) (2020-10-08T14:47:02Z) - Evaluating Logical Generalization in Graph Neural Networks [59.70452462833374]
グラフニューラルネットワーク(GNN)を用いた論理一般化の課題について検討する。
ベンチマークスイートであるGraphLogでは、学習アルゴリズムが異なる合成論理でルール誘導を実行する必要がある。
モデルが一般化し適応する能力は、トレーニング中に遭遇する論理規則の多様性によって強く決定される。
論文 参考訳(メタデータ) (2020-03-14T05:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。