論文の概要: Scalable Neural-Probabilistic Answer Set Programming
- arxiv url: http://arxiv.org/abs/2306.08397v1
- Date: Wed, 14 Jun 2023 09:45:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 19:28:20.611613
- Title: Scalable Neural-Probabilistic Answer Set Programming
- Title(参考訳): スケーラブルなニューラル確率的解集合プログラミング
- Authors: Arseny Skryagin and Daniel Ochs and Devendra Singh Dhami and Kristian
Kersting
- Abstract要約: 本稿では、NPP(Neural-Probabilistic Predicates)と解集合プログラミング(ASP)を介して統合された論理プログラムからなる新しいDPPLであるSLASHを紹介する。
予測性能を犠牲にすることなく、推論を高速化し、(地上)プログラムの無意味な部分を抜粋する方法を示す。
我々は、MNIST追加のベンチマークタスクやVQA(Visual Question Answering)など、様々なタスクでSLASHを評価する。
- 参考スコア(独自算出の注目度): 18.136093815001423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of combining the robustness of neural networks and the
expressiveness of symbolic methods has rekindled the interest in Neuro-Symbolic
AI. Deep Probabilistic Programming Languages (DPPLs) have been developed for
probabilistic logic programming to be carried out via the probability
estimations of deep neural networks. However, recent SOTA DPPL approaches allow
only for limited conditional probabilistic queries and do not offer the power
of true joint probability estimation. In our work, we propose an easy
integration of tractable probabilistic inference within a DPPL. To this end, we
introduce SLASH, a novel DPPL that consists of Neural-Probabilistic Predicates
(NPPs) and a logic program, united via answer set programming (ASP). NPPs are a
novel design principle allowing for combining all deep model types and
combinations thereof to be represented as a single probabilistic predicate. In
this context, we introduce a novel $+/-$ notation for answering various types
of probabilistic queries by adjusting the atom notations of a predicate. To
scale well, we show how to prune the stochastically insignificant parts of the
(ground) program, speeding up reasoning without sacrificing the predictive
performance. We evaluate SLASH on a variety of different tasks, including the
benchmark task of MNIST addition and Visual Question Answering (VQA).
- Abstract(参考訳): ニューラルネットワークのロバスト性とシンボリックメソッドの表現性を組み合わせた目標は、ニューロシンボリックaiへの関心を再び高めた。
深層ニューラルネットワークの確率推定により確率論的論理プログラミングを行うために,DPPL(Deep Probabilistic Programming Languages)が開発された。
しかし、最近のSOTA DPPLアプローチでは、条件付き確率的クエリに限られており、真の関節確率推定のパワーを提供していない。
そこで本研究では,DPPL内でのトラクタブル確率的推論の容易な統合を提案する。
本稿では,NPP(Neural-Probabilistic Predicates)と解集合プログラミング(ASP)を介して結合された論理プログラムからなる新しいDPPLであるSLASHを紹介する。
NPPは、すべての深いモデルタイプとそれらの組み合わせを単一の確率的述語として表現できる新しい設計原理である。
この文脈では、述語の原子表記を調整することにより、様々な種類の確率的クエリに応答する新しい$+/-$表記を導入する。
提案手法は, 予測性能を犠牲にすることなく, 推論を高速化し, 統計的に重要でない部分(地上)を創出する方法を示す。
我々は、MNIST追加のベンチマークタスクやVQA(Visual Question Answering)など、様々なタスクでSLASHを評価する。
関連論文リスト
- Towards Probabilistic Inductive Logic Programming with Neurosymbolic Inference and Relaxation [0.0]
本稿では,欠陥や確率的背景知識を扱うPropperを提案する。
ノイズの多いイメージのリレーショナルパターンでは、Propperは8つの例からプログラムを学ぶことができる。
グラフニューラルネットワークのようなバイナリILPや統計モデルよりも優れています。
論文 参考訳(メタデータ) (2024-08-21T06:38:49Z) - dPASP: A Comprehensive Differentiable Probabilistic Answer Set
Programming Environment For Neurosymbolic Learning and Reasoning [0.0]
本稿では,ニューロシンボリック推論のための新しい宣言型論理プログラミングフレームワークdPASPを提案する。
非決定論的・矛盾的・不完全・統計的知識を表現できる確率論的論理プログラムのセマンティクスについて論じる。
次に、いくつかのサンプルプログラムとともに、言語での推論と学習をサポートする実装されたパッケージについて説明する。
論文 参考訳(メタデータ) (2023-08-05T19:36:58Z) - Neural Probabilistic Logic Programming in Discrete-Continuous Domains [9.94537457589893]
ニューラルシンボリックAI(NeSy)は、ニューラルネットワークが論理の形でシンボリックバックグラウンド知識を利用することを可能にする。
確率論的NeSyは、論理理論と確率理論の両方でニューラルネットワークを統合することに焦点を当てている。
DeepSeaProbLogは、DPPテクニックをNeSyに組み込んだ、ニューラルネットワーク確率論理プログラミング言語である。
論文 参考訳(メタデータ) (2023-03-08T15:27:29Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - plingo: A system for probabilistic reasoning in clingo based on lpmln [2.7742922296398738]
様々な確率論的推論モードを備えたASPシステムクリンゴの拡張であるplingoを提案する。
Plingoは、Markov Logicの重みスキームに基づくASPの確率的拡張であるLPMLNを中心にしている。
我々は、他の確率システムと比較することにより、プリンゴの性能を実証的に評価する。
論文 参考訳(メタデータ) (2022-06-23T07:51:10Z) - Semantic Probabilistic Layers for Neuro-Symbolic Learning [83.25785999205932]
我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
論文 参考訳(メタデータ) (2022-06-01T12:02:38Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - SLASH: Embracing Probabilistic Circuits into Neural Answer Set
Programming [15.814914345000574]
SLASH(Deep Probabilistic Language:DPPL)を紹介します。
SLASHのコアとなるのは、NPP(Neural-Probabilistic Predicates)と、応答セットプログラミングを通じて統合された論理プログラムである。
我々は,MNIST加算のベンチマークデータとDPPLの欠落データ予測や最先端性能のセット予測といった新しいタスクに基づいてSLASHを評価する。
論文 参考訳(メタデータ) (2021-10-07T12:35:55Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。