論文の概要: Bayes Meets Entailment and Prediction: Commonsense Reasoning with
Non-monotonicity, Paraconsistency and Predictive Accuracy
- arxiv url: http://arxiv.org/abs/2012.08479v3
- Date: Wed, 27 Jan 2021 18:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:27:08.099875
- Title: Bayes Meets Entailment and Prediction: Commonsense Reasoning with
Non-monotonicity, Paraconsistency and Predictive Accuracy
- Title(参考訳): bayes meets entailment and prediction: non-monotonicity, paraconsistency and prediction accuracy を用いたコモンセンス推論
- Authors: Hiroyuki Kido, Keishi Okamoto
- Abstract要約: 論理的な結果関係の生成モデルを紹介します。
これは、ある文の真理値が、世界の状態の確率分布から確率的に生成される過程を定式化する。
生成モデルは、カグルタイタニックデータセットの予測精度と複雑性において、いくつかの代表的なアルゴリズムを上回る新しい分類アルゴリズムを与える。
- 参考スコア(独自算出の注目度): 2.7412662946127755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent success of Bayesian methods in neuroscience and artificial
intelligence gives rise to the hypothesis that the brain is a Bayesian machine.
Since logic and learning are both practices of the human brain, it leads to
another hypothesis that there is a Bayesian interpretation underlying both
logical reasoning and machine learning. In this paper, we introduce a
generative model of logical consequence relations. It formalises the process of
how the truth value of a sentence is probabilistically generated from the
probability distribution over states of the world. We show that the generative
model characterises a classical consequence relation, paraconsistent
consequence relation and nonmonotonic consequence relation. In particular, the
generative model gives a new consequence relation that outperforms them in
reasoning with inconsistent knowledge. We also show that the generative model
gives a new classification algorithm that outperforms several representative
algorithms in predictive accuracy and complexity on the Kaggle Titanic dataset.
- Abstract(参考訳): 近年、神経科学と人工知能におけるベイズ法の成功は、脳がベイズ機械であるという仮説を生み出した。
論理学と学習はどちらも人間の脳のプラクティスであるため、論理的推論と機械学習の両方の基礎にベイズ解釈があるという別の仮説が導かれる。
本稿では,論理的帰結関係の生成モデルを提案する。
これは、ある文の真理値が、世界の状態の確率分布から確率的に生成される過程を定式化する。
生成モデルは,古典的な結果関係,矛盾する結果関係,非単調な結果関係を特徴付ける。
特に、生成モデルは、一貫性のない知識の推論においてそれらを上回る新しい結果の関係を与える。
また,生成モデルは,カグルタイタニックデータセットの予測精度と複雑性において,いくつかの代表的なアルゴリズムを上回る新しい分類アルゴリズムを与えることを示した。
関連論文リスト
- Inference of Abstraction for a Unified Account of Reasoning and Learning [0.0]
我々は、推論と学習の統一的な説明のために、単純な確率的推論の理論を与える。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的な知識を引き起こすかをモデル化する。
論文 参考訳(メタデータ) (2024-02-14T09:43:35Z) - Machine-Guided Discovery of a Real-World Rogue Wave Model [0.0]
本稿では, 因果解析, 深層学習, パーシモニー誘導モデル選択, 記号回帰を用いたデータから, 海洋ローグ波の新しい記号モデルを発見するケーススタディを提案する。
我々は,このブラックボックスモデルをニューラルネットワークの予測能力を保持する数学的方程式に蒸留するために,記号回帰を適用した。
これは、機械学習が帰納的な科学的発見を促進する方法を示し、より正確なローグ波予測の道を開く。
論文 参考訳(メタデータ) (2023-11-21T12:50:24Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - A Simple Generative Model of Logical Reasoning and Statistical Learning [0.6853165736531939]
統計的学習と論理的推論は、AIの2つの主要な分野であり、人間のようなマシンインテリジェンスに統一されることが期待されている。
本稿では、論理的推論と統計的学習の単純なベイズモデルを提案する。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的知識を引き起こすかをモデル化する。
論文 参考訳(メタデータ) (2023-05-18T16:34:51Z) - Generative Logic with Time: Beyond Logical Consistency and Statistical
Possibility [0.6853165736531939]
本稿では,データから記号的知識を生成する時間確率モデルを提案する。
モデルの正しさは、コルモゴロフの公理、フェンシュタットの定理、最大推定値との整合性の観点から正当化される。
論文 参考訳(メタデータ) (2023-01-20T10:55:49Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Bayesian Entailment Hypothesis: How Brains Implement Monotonic and
Non-monotonic Reasoning [0.6853165736531939]
ベイズ的含意の説明を与え、その抽象的推論特性を特徴づける。
代表的な非単調な帰結関係である優先エンテーメントは、最大で後続エンテーメントであることが示されている。
提案提案のメリットとして,デフォルト設定のエンコーディング,変更と矛盾の処理,人間関係のモデル化などについて論じる。
論文 参考訳(メタデータ) (2020-05-03T01:26:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。