論文の概要: On Scaling Neurosymbolic Programming through Guided Logical Inference
- arxiv url: http://arxiv.org/abs/2501.18202v1
- Date: Thu, 30 Jan 2025 08:49:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:15:06.702650
- Title: On Scaling Neurosymbolic Programming through Guided Logical Inference
- Title(参考訳): ガイド付き論理推論によるニューロシンボリックプログラミングのスケーリングについて
- Authors: Thomas Jean-Michel Valentin, Luisa Sophie Werner, Pierre Genevès, Nabil Layaïda,
- Abstract要約: そこで我々は,論理的証明の計算をバイパスするアルゴリズムNLを提案する。
このアプローチは, ApproxDPNL と呼ばれる $epsilon$ あるいは $(epsilon, delta)$ 保証を用いて近似推論に適応可能であることを示す。
- 参考スコア(独自算出の注目度): 1.124958340749622
- License:
- Abstract: Probabilistic neurosymbolic learning seeks to integrate neural networks with symbolic programming. Many state-of-the-art systems rely on a reduction to the Probabilistic Weighted Model Counting Problem (PWMC), which requires computing a Boolean formula called the logical provenance.However, PWMC is \\#P-hard, and the number of clauses in the logical provenance formula can grow exponentially, creating a major bottleneck that significantly limits the applicability of PNL solutions in practice.We propose a new approach centered around an exact algorithm DPNL, that enables bypassing the computation of the logical provenance.The DPNL approach relies on the principles of an oracle and a recursive DPLL-like decomposition in order to guide and speed up logical inference.Furthermore, we show that this approach can be adapted for approximate reasoning with $\epsilon$ or $(\epsilon, \delta)$ guarantees, called ApproxDPNL.Experiments show significant performance gains.DPNL enables scaling exact inference further, resulting in more accurate models.Further, ApproxDPNL shows potential for advancing the scalability of neurosymbolic programming by incorporating approximations even further, while simultaneously ensuring guarantees for the reasoning process.
- Abstract(参考訳): 確率論的ニューロシンボリック学習は、ニューラルネットワークとシンボリックプログラミングを統合することを目指している。
しかし、PWMCは、論理的証明式である \\#P-hard であり、論理的証明式における節数も指数関数的に増加し、PNL の解の適用性を著しく制限する大きなボトルネックを生じさせうる。我々は、論理的証明の計算をバイパスできる厳密なアルゴリズム DPNL を中心にした新しいアプローチを提案している。また、DPNL のアプローチは、論理的推論をガイドし、高速化するために、オラクルの原理と再帰的なDPLL のような分解に依存している。
関連論文リスト
- Towards Probabilistic Inductive Logic Programming with Neurosymbolic Inference and Relaxation [0.0]
本稿では,欠陥や確率的背景知識を扱うPropperを提案する。
ノイズの多いイメージのリレーショナルパターンでは、Propperは8つの例からプログラムを学ぶことができる。
グラフニューラルネットワークのようなバイナリILPや統計モデルよりも優れています。
論文 参考訳(メタデータ) (2024-08-21T06:38:49Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - LogicMP: A Neuro-symbolic Approach for Encoding First-order Logic Constraints [42.16663204729038]
本稿では,MLN上で平均場変動推定を行う新しいニューラルネットワーク層LogicMPを提案する。
モジュール性と効率を保ちながら、FOLCをエンコードするために、市販のニューラルネットワークにプラグインすることができる。
グラフ、画像、テキストの3種類のタスクを経験した結果、LogicMPは、パフォーマンスと効率の両面で、先進的な競合より優れています。
論文 参考訳(メタデータ) (2023-09-27T07:52:30Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Scalable Neural-Probabilistic Answer Set Programming [18.136093815001423]
本稿では、NPP(Neural-Probabilistic Predicates)と解集合プログラミング(ASP)を介して統合された論理プログラムからなる新しいDPPLであるSLASHを紹介する。
予測性能を犠牲にすることなく、推論を高速化し、(地上)プログラムの無意味な部分を抜粋する方法を示す。
我々は、MNIST追加のベンチマークタスクやVQA(Visual Question Answering)など、様々なタスクでSLASHを評価する。
論文 参考訳(メタデータ) (2023-06-14T09:45:29Z) - A-NeSI: A Scalable Approximate Method for Probabilistic Neurosymbolic
Inference [11.393328084369783]
近年、DeepProbLogのような確率的ニューロシンボリックラーニング(PNL)のためのフレームワークが指数時間正確な推論を行う。
近似推論にスケーラブルなニューラルネットワークを用いるPNLの新しいフレームワークである近似ニューロシンボリック推論(A-NeSI)を紹介する。
論文 参考訳(メタデータ) (2022-12-23T15:24:53Z) - Semantic Probabilistic Layers for Neuro-Symbolic Learning [83.25785999205932]
我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
論文 参考訳(メタデータ) (2022-06-01T12:02:38Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - SLASH: Embracing Probabilistic Circuits into Neural Answer Set
Programming [15.814914345000574]
SLASH(Deep Probabilistic Language:DPPL)を紹介します。
SLASHのコアとなるのは、NPP(Neural-Probabilistic Predicates)と、応答セットプログラミングを通じて統合された論理プログラムである。
我々は,MNIST加算のベンチマークデータとDPPLの欠落データ予測や最先端性能のセット予測といった新しいタスクに基づいてSLASHを評価する。
論文 参考訳(メタデータ) (2021-10-07T12:35:55Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。