論文の概要: The Quantified Boolean Bayesian Network: Theory and Experiments with a
Logical Graphical Model
- arxiv url: http://arxiv.org/abs/2402.06557v1
- Date: Fri, 9 Feb 2024 17:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 16:02:31.914080
- Title: The Quantified Boolean Bayesian Network: Theory and Experiments with a
Logical Graphical Model
- Title(参考訳): 量子化ブールベイズネットワーク:論理グラフィカルモデルを用いた理論と実験
- Authors: Gregory Coppola
- Abstract要約: 確率的ネットワークが人間の言語の基礎となる論理的理由を表現するためにどのように構成できるかを示す。
推論では,収束が保証されていないLoopy Belief Propagation (LBP) の使用について検討する。
我々の実験は、LBPが実際に非常に確実に収束していることを示し、我々の分析は、LBPのラウンドが、考慮される変数の数を$N$で制限する時間(O(N2n)$)を必要とすることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the Quantified Boolean Bayesian Network (QBBN), which
provides a unified view of logical and probabilistic reasoning. The QBBN is
meant to address a central problem with the Large Language Model (LLM), which
has become extremely popular in Information Retrieval, which is that the LLM
hallucinates. A Bayesian Network, by construction, cannot hallucinate, because
it can only return answers that it can explain. We show how a Bayesian Network
over an unbounded number of boolean variables can be configured to represent
the logical reasoning underlying human language. We do this by creating a
key-value version of the First-Order Calculus, for which we can prove
consistency and completeness. We show that the model is trivially trained over
fully observed data, but that inference is non-trivial. Exact inference in a
Bayesian Network is intractable (i.e. $\Omega(2^N)$ for $N$ variables). For
inference, we investigate the use of Loopy Belief Propagation (LBP), which is
not guaranteed to converge, but which has been shown to often converge in
practice. Our experiments show that LBP indeed does converge very reliably, and
our analysis shows that a round of LBP takes time $O(N2^n)$, where $N$ bounds
the number of variables considered, and $n$ bounds the number of incoming
connections to any factor, and further improvements may be possible. Our
network is specifically designed to alternate between AND and OR gates in a
Boolean Algebra, which connects more closely to logical reasoning, allowing a
completeness proof for an expanded version of our network, and also allows
inference to follow specific but adequate pathways, that turn out to be fast.
- Abstract(参考訳): 本稿では,論理的および確率的推論の統一的なビューを提供するQuantified Boolean Bayesian Network (QBBN)を紹介する。
QBBNは、Large Language Model (LLM) の中心的な問題に対処することを目的としており、情報検索(Information Retrieval)において非常に人気になっている。
ベイズネットワークは、構成上は、説明できる答えのみを返すことができるため、幻覚を起こせない。
本稿では,非有界数のブール変数を用いたベイズネットワークが,人間の言語における論理的推論を表現するように構成できることを示す。
これは、一階計算のキー値バージョンを作成して、一貫性と完全性を証明することで実現します。
モデルは完全に観測されたデータ上で自明に訓練されているが、推論は自明ではない。
ベイズネットワークにおける具体的な推論は難解である($\Omega(2^N)$ for $N$)。
推測のために, 収束が保証されていないが, 実際に収束することがしばしば示されているループ的信念伝播(LBP)の使用について検討する。
我々の実験では、 lbp は確かに非常に確実に収束しており、分析の結果、一連の lbp のラウンドは、考慮される変数の数に $n$ が制限され、$n$ は任意の要素への入ってくるコネクションの数に制限され、さらなる改善が可能となる。
我々のネットワークは論理的推論に密接に結びついており、我々のネットワークの拡張バージョンに対する完全性証明を可能にし、また推論は特定のが適切な経路に従うことができ、高速であることが判明した。
関連論文リスト
- FLARE: Faithful Logic-Aided Reasoning and Exploration [50.9814063216852]
タスク分解を用いて問題空間をトラバースする新しい手法を提案する。
我々はLarge Language Modelsを使ってソリューションを計画し、クエリを事実に軟式化し、論理プログラミングコードを使って述語する。
提案手法は,生成したコードに対する推論プロセスの忠実度を計算し,外部の解法に頼らずにマルチホップ探索のステップを解析する。
論文 参考訳(メタデータ) (2024-10-14T19:39:11Z) - Neural Networks Generalize on Low Complexity Data [5.678271181959529]
本稿では、ReLUを活性化したフィードフォワードニューラルネットワークが、低複雑性データに基づいて一般化されていることを示す。
我々は、そのようなネットワークの記述長の概念とともに、この単純なプログラミング言語を定義する。
自然数の素性チェックなどの基本的な計算タスクの例を示す。
論文 参考訳(メタデータ) (2024-09-19T03:54:49Z) - Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Probabilistic Modeling: Proving the Lottery Ticket Hypothesis in Spiking
Neural Network [30.924449325020767]
Lottery Ticket hypothesis (LTH) は、ランダムにdの大きいニューラルネットワークは小さなサブネットワークを含んでいると述べている。
LTHはプルーニングネットワークのための新しいパスを開く。
論文 参考訳(メタデータ) (2023-05-20T09:27:34Z) - p-Adic Statistical Field Theory and Deep Belief Networks [0.0]
一般に、$p$進時空上の場の理論は厳密な方法で定式化することができる。
これらの理論は、深い信念ネットワーク(DBN)と深く結びついていることを示す。
このアプローチでは、$p$進 SFT は$p$進連続 DBN に対応し、この理論の離散化は$p$進離散 DBN に対応する。
論文 参考訳(メタデータ) (2022-07-28T04:04:48Z) - On the Optimal Memorization Power of ReLU Neural Networks [53.15475693468925]
フィードフォワードReLUニューラルネットワークは、軽度の分離可能性仮定を満たす任意のN$ポイントを記憶することができることを示す。
このような大きなビットの複雑性を持つことは、サブ線形数のパラメータを記憶するのに必要であり、十分であることを示す。
論文 参考訳(メタデータ) (2021-10-07T05:25:23Z) - Abstraction, Reasoning and Deep Learning: A Study of the "Look and Say"
Sequence [0.0]
ディープニューラルネットワークは、大規模なデータセットでトレーニングされた場合、高い能力(精度で測定される)を示すことができる。
パズルデータ「Look and Say」の2つのセット実験について報告する。
トレーニングデータとテストデータの両方で)驚くべき精度にもかかわらず、実際のL&Sシーケンス上でのトレーニングプログラムのパフォーマンスは悪いです。
論文 参考訳(メタデータ) (2021-09-27T01:41:37Z) - A simple geometric proof for the benefit of depth in ReLU networks [57.815699322370826]
本論文では, 多層フィードフォワードネットワークにおける深度の利点を, 整流活性化(深度分離)により証明する。
我々は、線形深さ($m$)と小さな定数幅($leq 4$)を持つ具体的なニューラルネットワークを示し、問題をゼロエラーで分類する。
論文 参考訳(メタデータ) (2021-01-18T15:40:27Z) - Bayesian Inference Forgetting [82.6681466124663]
忘れられる権利は多くの国で合法化されているが、機械学習の施行は耐え難いコストを引き起こすだろう。
本稿では,ベイズ推論において忘れられる権利を実現するための it bayesian inference forgetting (bif) フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-16T09:52:51Z) - Optimal Lottery Tickets via SubsetSum: Logarithmic Over-Parameterization
is Sufficient [9.309655246559094]
幅$d$と深さ$l$の任意のターゲットネットワークは、幅$O(log(dl))$の2倍、幅$O(log(dl))$のランダムネットワークを切断することで近似できることを示す。
解析は、プルーニングランダムなReLUネットワークをtextscSubset問題のランダムなインスタンスに接続することに依存する。
論文 参考訳(メタデータ) (2020-06-14T19:32:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。