論文の概要: Neural Probabilistic Logic Programming in Discrete-Continuous Domains
- arxiv url: http://arxiv.org/abs/2303.04660v1
- Date: Wed, 8 Mar 2023 15:27:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 13:27:18.207192
- Title: Neural Probabilistic Logic Programming in Discrete-Continuous Domains
- Title(参考訳): 離散連続領域における神経確率論理プログラミング
- Authors: Lennert De Smet and Pedro Zuidberg Dos Martires and Robin Manhaeve and
Giuseppe Marra and Angelika Kimmig and Luc De Readt
- Abstract要約: ニューラルシンボリックAI(NeSy)は、ニューラルネットワークが論理の形でシンボリックバックグラウンド知識を利用することを可能にする。
確率論的NeSyは、論理理論と確率理論の両方でニューラルネットワークを統合することに焦点を当てている。
DeepSeaProbLogは、DPPテクニックをNeSyに組み込んだ、ニューラルネットワーク確率論理プログラミング言語である。
- 参考スコア(独自算出の注目度): 9.94537457589893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural-symbolic AI (NeSy) allows neural networks to exploit symbolic
background knowledge in the form of logic. It has been shown to aid learning in
the limited data regime and to facilitate inference on out-of-distribution
data. Probabilistic NeSy focuses on integrating neural networks with both logic
and probability theory, which additionally allows learning under uncertainty. A
major limitation of current probabilistic NeSy systems, such as DeepProbLog, is
their restriction to finite probability distributions, i.e., discrete random
variables. In contrast, deep probabilistic programming (DPP) excels in
modelling and optimising continuous probability distributions. Hence, we
introduce DeepSeaProbLog, a neural probabilistic logic programming language
that incorporates DPP techniques into NeSy. Doing so results in the support of
inference and learning of both discrete and continuous probability
distributions under logical constraints. Our main contributions are 1) the
semantics of DeepSeaProbLog and its corresponding inference algorithm, 2) a
proven asymptotically unbiased learning algorithm, and 3) a series of
experiments that illustrate the versatility of our approach.
- Abstract(参考訳): ニューラルシンボリックAI(NeSy)は、ニューラルネットワークが論理の形でシンボリックバックグラウンド知識を利用することを可能にする。
限られたデータレジームでの学習を支援し、分散データの推論を容易にすることが示されている。
確率論的NeSyは、ニューラルネットワークを論理理論と確率理論の両方に統合することに焦点を当てている。
DeepProbLogのような現在の確率的NeSy系の大きな制限は、有限確率分布、すなわち離散確率変数に対する制限である。
対照的に、dpp(deep probabilistic programming)は連続確率分布のモデリングと最適化に優れている。
そこで我々は,DPP技術をNeSyに組み込んだニューラル確率論理型言語DeepSeaProbLogを紹介する。
これにより、論理的制約下での離散確率分布と連続確率分布の推論と学習がサポートされる。
私たちの主な貢献は
1)DeepSeaProbLogのセマンティクスとそれに対応する推論アルゴリズム
2)漸近的に偏見のない学習アルゴリズム,及び
3)我々のアプローチの汎用性を示す一連の実験。
関連論文リスト
- Towards Probabilistic Inductive Logic Programming with Neurosymbolic Inference and Relaxation [0.0]
本稿では,欠陥や確率的背景知識を扱うPropperを提案する。
ノイズの多いイメージのリレーショナルパターンでは、Propperは8つの例からプログラムを学ぶことができる。
グラフニューラルネットワークのようなバイナリILPや統計モデルよりも優れています。
論文 参考訳(メタデータ) (2024-08-21T06:38:49Z) - Recurrent Neural Language Models as Probabilistic Finite-state Automata [66.23172872811594]
RNN LMが表現できる確率分布のクラスについて検討する。
単純なRNNは確率的有限状態オートマトンの部分クラスと同値であることを示す。
これらの結果は、RNN LMが表現できる分布のクラスを特徴付けるための第一歩を示す。
論文 参考訳(メタデータ) (2023-10-08T13:36:05Z) - dPASP: A Comprehensive Differentiable Probabilistic Answer Set
Programming Environment For Neurosymbolic Learning and Reasoning [0.0]
本稿では,ニューロシンボリック推論のための新しい宣言型論理プログラミングフレームワークdPASPを提案する。
非決定論的・矛盾的・不完全・統計的知識を表現できる確率論的論理プログラムのセマンティクスについて論じる。
次に、いくつかのサンプルプログラムとともに、言語での推論と学習をサポートする実装されたパッケージについて説明する。
論文 参考訳(メタデータ) (2023-08-05T19:36:58Z) - Scalable Neural-Probabilistic Answer Set Programming [18.136093815001423]
本稿では、NPP(Neural-Probabilistic Predicates)と解集合プログラミング(ASP)を介して統合された論理プログラムからなる新しいDPPLであるSLASHを紹介する。
予測性能を犠牲にすることなく、推論を高速化し、(地上)プログラムの無意味な部分を抜粋する方法を示す。
我々は、MNIST追加のベンチマークタスクやVQA(Visual Question Answering)など、様々なタスクでSLASHを評価する。
論文 参考訳(メタデータ) (2023-06-14T09:45:29Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Logical Credal Networks [87.25387518070411]
本稿では,論理と確率を組み合わせた先行モデルの多くを一般化した表現的確率論的論理である論理的クレダルネットワークを紹介する。
本稿では,不確実性のあるマスターミンドゲームを解くこと,クレジットカード詐欺を検出することを含む,最大後部推論タスクの性能について検討する。
論文 参考訳(メタデータ) (2021-09-25T00:00:47Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - DeepStochLog: Neural Stochastic Logic Programming [15.938755941588159]
ニューラルネットワークプログラミングにおける推論と学習は、ニューラルネットワークの確率論的論理プログラムよりもはるかに優れていることを示す。
DeepStochLogは、ニューラルネットワークのシンボリック学習タスクにおける最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-23T17:59:04Z) - Probabilistic Deep Learning with Probabilistic Neural Networks and Deep
Probabilistic Models [0.6091702876917281]
確率論的深層学習には,確率論的ニューラルネットワークと深部確率論的モデルという2つのアプローチを区別する。
確率的ディープラーニング(probabilistic Deep Learning)は、モデル不確実性とデータ不確実性の両方を考慮に入れたディープラーニングである。
論文 参考訳(メタデータ) (2021-05-31T22:13:21Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。