論文の概要: A Data-Transparent Probabilistic Model of Temporal Propositional Abstraction
- arxiv url: http://arxiv.org/abs/2301.08509v3
- Date: Fri, 04 Jul 2025 21:37:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:33.992143
- Title: A Data-Transparent Probabilistic Model of Temporal Propositional Abstraction
- Title(参考訳): 時間的命題抽象のデータの透過的確率モデル
- Authors: Hiroyuki Kido,
- Abstract要約: 標準確率モデルは、データの不足、大きな仮説空間、データの透明性の低下など、基本的な課題に直面している。
本稿では,データ駆動型時間命題推論の新しい確率論的モデルを提案する。
我々は,本モデルが高次,すなわち全メモリ,マルコフ連鎖と等価であることを示し,隠れ変数と観測変数の区別を必要としない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard probabilistic models face fundamental challenges such as data scarcity, a large hypothesis space, and poor data transparency. To address these challenges, we propose a novel probabilistic model of data-driven temporal propositional reasoning. Unlike conventional probabilistic models where data is a product of domain knowledge encoded in the probabilistic model, we explore the reverse direction where domain knowledge is a product of data encoded in the probabilistic model. This more data-driven perspective suggests no distinction between maximum likelihood parameter learning and temporal propositional reasoning. We show that our probabilistic model is equivalent to a highest-order, i.e., full-memory, Markov chain, and our model requires no distinction between hidden and observable variables. We discuss that limits provide a natural and mathematically rigorous way to handle data scarcity, including the zero-frequency problem. We also discuss that a probability distribution over data generated by our probabilistic model helps data transparency by revealing influential data used in predictions. The reproducibility of this theoretical work is fully demonstrated by the included proofs.
- Abstract(参考訳): 標準確率モデルは、データの不足、大きな仮説空間、データの透明性の低下など、基本的な課題に直面している。
これらの課題に対処するために,データ駆動型時間命題推論の新しい確率論的モデルを提案する。
確率モデルで符号化されたドメイン知識の積である従来の確率モデルとは異なり、確率モデルで符号化されたデータの積である領域知識の逆方向を探索する。
このデータ駆動の視点は、最大パラメータ学習と時間命題推論の区別を示さない。
我々の確率モデルは、最大階、すなわち全メモリ、マルコフ連鎖と等価であることを示し、我々のモデルは隠れ変数と観測変数の区別を必要としない。
我々は、制限がゼロ周波問題を含むデータ不足を扱う自然な、数学的に厳密な方法をもたらすことを議論する。
また、確率論的モデルにより生成されたデータに対する確率分布は、予測に使用される影響力のあるデータを明らかにすることによってデータの透明性を高めることを議論する。
この理論的な研究の再現性は、包含された証明によって完全に証明される。
関連論文リスト
- Uncertainty Quantification in the Tsetlin Machine [11.592828269085082]
我々は不確実性定量化のための新しい手法を開発し、説明可能性をさらに高める。
確率スコアは任意のTM変種固有の性質であり、TM学習力学の解析によって導出される。
確率スコアの可視化により、TMはトレーニングデータ領域外の予測に自信がないことが明らかになった。
論文 参考訳(メタデータ) (2025-07-05T22:06:46Z) - Inference of Abstraction for Grounded Predicate Logic [0.0]
AIにおける重要なオープンな疑問は、シンプルで自然な原理によって、機械が基底記号で意味のある抽象化を論理的に論理的に行うことができるかである。
本稿では,確率論的推論とデータ上の述語的推論を組み合わせ,概念的に新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-19T14:07:34Z) - Towards Privacy-Preserving Relational Data Synthesis via Probabilistic Relational Models [3.877001015064152]
確率的リレーショナルモデルは、一階述語論理と確率的モデルを組み合わせるための確立された形式主義を提供する。
人工知能の分野は、さまざまな機械学習タスクのために、ますます大量のリレーショナルトレーニングデータを必要とする。
プライバシの懸念やデータ保護の規制、高コストなどにより、現実のデータの収集は難しいことが多い。
論文 参考訳(メタデータ) (2024-09-06T11:24:25Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Exchangeable Sequence Models Quantify Uncertainty Over Latent Concepts [6.256239986541708]
事前学習されたシーケンスモデルは、交換可能なデータポイントよりも確率論的推論が可能であることを示す。
シーケンスモデルは、典型的なベイズモデルとは異なる観測間の関係を学習する。
シーケンス予測損失が不確実性定量化の品質を制御することを示す。
論文 参考訳(メタデータ) (2024-08-06T17:16:10Z) - On the Efficient Marginalization of Probabilistic Sequence Models [3.5897534810405403]
この論文は、複雑な確率的クエリに答えるために自己回帰モデルを使うことに焦点を当てている。
我々は,モデルに依存しない逐次モデルにおいて,境界化のための新しい,効率的な近似手法のクラスを開発する。
論文 参考訳(メタデータ) (2024-03-06T19:29:08Z) - Inference of Abstraction for a Unified Account of Reasoning and Learning [0.0]
我々は、推論と学習の統一的な説明のために、単純な確率的推論の理論を与える。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的な知識を引き起こすかをモデル化する。
論文 参考訳(メタデータ) (2024-02-14T09:43:35Z) - Inference of Abstraction for a Unified Account of Symbolic Reasoning
from Data [0.0]
データから様々な種類の記号的推論を統一的確率論的に記述する。
この理論は、人間のようなマシンインテリジェンスに対する推論に関する新たな洞察を与える。
論文 参考訳(メタデータ) (2024-02-13T18:24:23Z) - User-defined Event Sampling and Uncertainty Quantification in Diffusion
Models for Physical Dynamical Systems [49.75149094527068]
拡散モデルを用いて予測を行い,カオス力学系に対する不確かさの定量化が可能であることを示す。
本研究では,雑音レベルが低下するにつれて真の分布に収束する条件付きスコア関数の確率的近似法を開発する。
推論時に非線形ユーザ定義イベントを条件付きでサンプリングすることができ、分布の尾部からサンプリングした場合でもデータ統計と一致させることができる。
論文 参考訳(メタデータ) (2023-06-13T03:42:03Z) - A Simple Generative Model of Logical Reasoning and Statistical Learning [0.6853165736531939]
統計的学習と論理的推論は、AIの2つの主要な分野であり、人間のようなマシンインテリジェンスに統一されることが期待されている。
本稿では、論理的推論と統計的学習の単純なベイズモデルを提案する。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的知識を引き起こすかをモデル化する。
論文 参考訳(メタデータ) (2023-05-18T16:34:51Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - On the Paradox of Learning to Reason from Data [86.13662838603761]
BERTは,同じ問題空間上での他のデータ分布への一般化に失敗しながら,分布内テスト例に対してほぼ完全な精度が得られることを示す。
このパラドックスは、正しい推論関数をエミュレートする学習ではなく、論理的推論問題に本質的に存在する統計的特徴を実際に学習している。
論文 参考訳(メタデータ) (2022-05-23T17:56:48Z) - Towards Unifying Logical Entailment and Statistical Estimation [0.6853165736531939]
本稿では,データ駆動論理推論のための形式論理の解釈モデルを提案する。
生成モデルは論理学と統計学におけるいくつかの異なるタイプの推論の統一理論であることが示されている。
論文 参考訳(メタデータ) (2022-02-27T17:51:35Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - Logical Credal Networks [87.25387518070411]
本稿では,論理と確率を組み合わせた先行モデルの多くを一般化した表現的確率論的論理である論理的クレダルネットワークを紹介する。
本稿では,不確実性のあるマスターミンドゲームを解くこと,クレジットカード詐欺を検出することを含む,最大後部推論タスクの性能について検討する。
論文 参考訳(メタデータ) (2021-09-25T00:00:47Z) - Typing assumptions improve identification in causal discovery [123.06886784834471]
観測データからの因果発見は、正確な解を常に特定できない難しい課題である。
そこで本研究では,変数の性質に基づいた因果関係を制約する仮説を新たに提案する。
論文 参考訳(メタデータ) (2021-07-22T14:23:08Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Learning Interpretable Deep State Space Model for Probabilistic Time
Series Forecasting [98.57851612518758]
確率的時系列予測は、その歴史に基づいて将来の分布を推定する。
本稿では,非線形エミッションモデルと遷移モデルとをネットワークによってパラメータ化した,確率的時系列予測のための深部状態空間モデルを提案する。
実験では,我々のモデルが正確かつ鋭い確率予測を生成することを示す。
論文 参考訳(メタデータ) (2021-01-31T06:49:33Z) - Bayes Meets Entailment and Prediction: Commonsense Reasoning with
Non-monotonicity, Paraconsistency and Predictive Accuracy [2.7412662946127755]
論理的な結果関係の生成モデルを紹介します。
これは、ある文の真理値が、世界の状態の確率分布から確率的に生成される過程を定式化する。
生成モデルは、カグルタイタニックデータセットの予測精度と複雑性において、いくつかの代表的なアルゴリズムを上回る新しい分類アルゴリズムを与える。
論文 参考訳(メタデータ) (2020-12-15T18:22:27Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。