論文の概要: A Simple Generative Model of Logical Reasoning and Statistical Learning
- arxiv url: http://arxiv.org/abs/2305.11098v1
- Date: Thu, 18 May 2023 16:34:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 13:58:57.669911
- Title: A Simple Generative Model of Logical Reasoning and Statistical Learning
- Title(参考訳): 論理推論と統計的学習の単純な生成モデル
- Authors: Hiroyuki Kido
- Abstract要約: 統計的学習と論理的推論は、AIの2つの主要な分野であり、人間のようなマシンインテリジェンスに統一されることが期待されている。
本稿では、論理的推論と統計的学習の単純なベイズモデルを提案する。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的知識を引き起こすかをモデル化する。
- 参考スコア(独自算出の注目度): 0.6853165736531939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Statistical learning and logical reasoning are two major fields of AI
expected to be unified for human-like machine intelligence. Most existing work
considers how to combine existing logical and statistical systems. However,
there is no theory of inference so far explaining how basic approaches to
statistical learning and logical reasoning stem from a common principle.
Inspired by the fact that much empirical work in neuroscience suggests Bayesian
(or probabilistic generative) approaches to brain function including learning
and reasoning, we here propose a simple Bayesian model of logical reasoning and
statistical learning. The theory is statistically correct as it satisfies
Kolmogorov's axioms, is consistent with both Fenstad's representation theorem
and maximum likelihood estimation and performs exact Bayesian inference with a
linear-time complexity. The theory is logically correct as it is a data-driven
generalisation of uncertain reasoning from consistency, possibility,
inconsistency and impossibility. The theory is correct in terms of machine
learning as its solution to generation and prediction tasks on the MNIST
dataset is not only empirically reasonable but also theoretically correct
against the K nearest neighbour method. We simply model how data causes
symbolic knowledge in terms of its satisfiability in formal logic. Symbolic
reasoning emerges as a result of the process of going the causality forwards
and backwards. The forward and backward processes correspond to an
interpretation and inverse interpretation in formal logic, respectively. The
inverse interpretation differentiates our work from the mainstream often
referred to as inverse entailment, inverse deduction or inverse resolution. The
perspective gives new insights into learning and reasoning towards human-like
machine intelligence.
- Abstract(参考訳): 統計的学習と論理推論は、AIの2つの主要な分野であり、人間のようなマシンインテリジェンスに統一されることが期待される。
既存の研究の多くは、既存の論理システムと統計システムを結合する方法を考えています。
しかし、統計的学習と論理的推論に対する基本的なアプローチが共通の原理にどのように関係しているかを説明する推論の理論は存在しない。
神経科学における多くの経験的研究が、学習と推論を含む脳機能に対するベイズ的(あるいは確率的生成)アプローチを示唆しているという事実に着想を得て、我々は論理的推論と統計的学習の単純なベイズ的モデルを提案する。
この理論はコルモゴロフの公理を満たす統計的に正確であり、フェンシュタットの表現定理と最大推定値に一致し、線形時間複雑性を持つ正確なベイズ推定を行う。
この理論は、整合性、可能性、矛盾性、不合理性から不確実な推論をデータ駆動で一般化した理論として論理的に正しい。
この理論は、mnistデータセットにおける生成および予測タスクに対する解として機械学習の観点から正しいだけでなく、k近傍の手法に対して理論的に正しい。
我々は、形式論理におけるその満足度の観点から、データの象徴的知識のモデル化を行う。
シンボリック推論は因果関係の前進と後退の過程の結果として現れる。
前方プロセスと後方プロセスはそれぞれ形式論理における解釈と逆解釈に対応している。
逆解釈は、我々の作品を、しばしば逆包含(inverse entailment)、逆推論(inverse deduction)、逆分解(inverse resolution)と呼ばれる主流と区別する。
この視点は、人間のようなマシンインテリジェンスに対する学習と推論に対する新たな洞察を与える。
関連論文リスト
- Inference of Abstraction for a Unified Account of Reasoning and Learning [0.0]
我々は、推論と学習の統一的な説明のために、単純な確率的推論の理論を与える。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的な知識を引き起こすかをモデル化する。
論文 参考訳(メタデータ) (2024-02-14T09:43:35Z) - Understanding Reasoning Ability of Language Models From the Perspective of Reasoning Paths Aggregation [110.71955853831707]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびCoTデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - Generative Logic with Time: Beyond Logical Consistency and Statistical
Possibility [0.6853165736531939]
本稿では,データから記号的知識を生成する時間確率モデルを提案する。
モデルの正しさは、コルモゴロフの公理、フェンシュタットの定理、最大推定値との整合性の観点から正当化される。
論文 参考訳(メタデータ) (2023-01-20T10:55:49Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Towards Unifying Perceptual Reasoning and Logical Reasoning [0.6853165736531939]
論理学の最近の研究は、論理的推論をベイズ的推論として提示している。
モデルが知覚システムと論理システムに共通する2つの本質的なプロセスを統合することを示す。
論文 参考訳(メタデータ) (2022-06-27T10:32:47Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - On the Paradox of Learning to Reason from Data [86.13662838603761]
BERTは,同じ問題空間上での他のデータ分布への一般化に失敗しながら,分布内テスト例に対してほぼ完全な精度が得られることを示す。
このパラドックスは、正しい推論関数をエミュレートする学習ではなく、論理的推論問題に本質的に存在する統計的特徴を実際に学習している。
論文 参考訳(メタデータ) (2022-05-23T17:56:48Z) - Towards Unifying Logical Entailment and Statistical Estimation [0.6853165736531939]
本稿では,データ駆動論理推論のための形式論理の解釈モデルを提案する。
生成モデルは論理学と統計学におけるいくつかの異なるタイプの推論の統一理論であることが示されている。
論文 参考訳(メタデータ) (2022-02-27T17:51:35Z) - Logical Credal Networks [87.25387518070411]
本稿では,論理と確率を組み合わせた先行モデルの多くを一般化した表現的確率論的論理である論理的クレダルネットワークを紹介する。
本稿では,不確実性のあるマスターミンドゲームを解くこと,クレジットカード詐欺を検出することを含む,最大後部推論タスクの性能について検討する。
論文 参考訳(メタデータ) (2021-09-25T00:00:47Z) - Bayes Meets Entailment and Prediction: Commonsense Reasoning with
Non-monotonicity, Paraconsistency and Predictive Accuracy [2.7412662946127755]
論理的な結果関係の生成モデルを紹介します。
これは、ある文の真理値が、世界の状態の確率分布から確率的に生成される過程を定式化する。
生成モデルは、カグルタイタニックデータセットの予測精度と複雑性において、いくつかの代表的なアルゴリズムを上回る新しい分類アルゴリズムを与える。
論文 参考訳(メタデータ) (2020-12-15T18:22:27Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。