論文の概要: Logical Boltzmann Machines
- arxiv url: http://arxiv.org/abs/2112.05841v1
- Date: Fri, 10 Dec 2021 21:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 18:04:46.940576
- Title: Logical Boltzmann Machines
- Title(参考訳): 論理ボルツマン機械
- Authors: Son N. Tran and Artur d'Avila Garcez
- Abstract要約: 論理ボルツマン機械 (LBM) は, 任意の命題論理式を厳密な解法形式で表現できる, ニューロシンボリックシステムである。
我々は,LBMにおけるエネルギー最小化と論理的満足度との等価性を証明し,LBMが音の推論が可能なことを示す。
- 参考スコア(独自算出の注目度): 5.292166874321887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The idea of representing symbolic knowledge in connectionist systems has been
a long-standing endeavour which has attracted much attention recently with the
objective of combining machine learning and scalable sound reasoning. Early
work has shown a correspondence between propositional logic and symmetrical
neural networks which nevertheless did not scale well with the number of
variables and whose training regime was inefficient. In this paper, we
introduce Logical Boltzmann Machines (LBM), a neurosymbolic system that can
represent any propositional logic formula in strict disjunctive normal form. We
prove equivalence between energy minimization in LBM and logical satisfiability
thus showing that LBM is capable of sound reasoning. We evaluate reasoning
empirically to show that LBM is capable of finding all satisfying assignments
of a class of logical formulae by searching fewer than 0.75% of the possible
(approximately 1 billion) assignments. We compare learning in LBM with a
symbolic inductive logic programming system, a state-of-the-art neurosymbolic
system and a purely neural network-based system, achieving better learning
performance in five out of seven data sets.
- Abstract(参考訳): コネクショニストシステムにおける象徴的知識を表現するという考え方は、機械学習とスケーラブルな音響推論を組み合わせるという目的から、近年注目を集めている長年にわたる試みである。
初期の研究では、命題論理と対称ニューラルネットワークの対応が示されているが、変数の数やトレーニングレジームが非効率にスケールしなかった。
本稿では,任意の命題論理式を厳密な解法正規形で表現できるニューロシンボリックシステムである論理ボルツマン機械(LBM)を紹介する。
我々は,LBMにおけるエネルギー最小化と論理的満足度との等価性を証明し,LBMが音の推論が可能なことを示す。
我々は, LBM が論理式のクラスで満たされる全ての代入を, 可能な (約10億) 代入の 0.75% 以下で探索できることを実証的に評価した。
我々は,LBMにおける学習を,記号型帰納論理プログラミングシステム,最先端のニューロシンボリックシステム,純粋にニューラルネットワークベースのシステムと比較し,7つのデータセットのうち5つで学習性能を向上させる。
関連論文リスト
- Neuro-symbolic Learning Yielding Logical Constraints [22.649543443988712]
ニューロシンボリックシステムのエンドツーエンドの学習は、まだ未解決の課題である。
本稿では,ネットワーク,シンボル接地,論理的制約合成を両立させるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-28T12:18:25Z) - Simulating Petri nets with Boolean Matrix Logic Programming [4.762323642506732]
本稿では,ハイレベルなシンボル操作の限界に対処する新しい手法を提案する。
本フレームワークでは,基本ネットとして知られるペトリネットのクラスに対して,2つの新しいBMLPアルゴリズムを提案する。
BMLPアルゴリズムは,表付きB-Prolog,SWI-Prolog,XSB-Prolog,Clingoの40倍の速度でこれらのプログラムを評価できることを示す。
論文 参考訳(メタデータ) (2024-05-18T23:17:00Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - LogiGAN: Learning Logical Reasoning via Adversarial Pre-training [58.11043285534766]
本稿では,言語モデルの論理的推論能力を向上させるために,教師なしの対人事前学習フレームワークLogiGANを提案する。
人間の学習におけるリフレクティブ思考の促進効果に着想を得て,逆生成検証アーキテクチャを用いて学習思考過程をシミュレートする。
LogiGANで事前トレーニングされたベースモデルと大規模言語モデルの両方で、12のデータセットで明らかなパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2022-05-18T08:46:49Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Improving Coherence and Consistency in Neural Sequence Models with
Dual-System, Neuro-Symbolic Reasoning [49.6928533575956]
我々は、神経系1と論理系2の間を仲介するために神経推論を用いる。
強靭なストーリー生成とグラウンドド・インストラクション・フォローリングの結果、このアプローチは神経系世代におけるコヒーレンスと精度を高めることができることを示した。
論文 参考訳(メタデータ) (2021-07-06T17:59:49Z) - Logic Tensor Networks [9.004005678155023]
学習と推論をサポートする神経シンボリック形式論と計算モデルであるLogic Networks(LTN)を提示する。
LTNがいくつかのAIタスクの仕様と計算に一様言語を提供することを示す。
論文 参考訳(メタデータ) (2020-12-25T22:30:18Z) - Neural Logic Reasoning [47.622957656745356]
本稿では,ディープラーニングと論理推論の能力を統合するために,論理統合ニューラルネットワーク(LINN)を提案する。
LINNは、神経モジュールとしてAND、OR、NOTなどの基本的な論理操作を学び、推論のためにネットワークを通して命題論理推論を行う。
実験の結果、LINNはTop-Kレコメンデーションにおいて最先端のレコメンデーションモデルを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-08-20T14:53:23Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。