論文の概要: Solving probability puzzles with logic toolkit
- arxiv url: http://arxiv.org/abs/2305.11294v1
- Date: Thu, 18 May 2023 20:35:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 17:18:46.257373
- Title: Solving probability puzzles with logic toolkit
- Title(参考訳): logic toolkitによる確率パズルの解法
- Authors: Adrian Groza
- Abstract要約: 提案手法は方程式FOLにおける確率論的パズルの定式化である。
ここでは5つの確率論的パズルと、min FOLを翻訳し、それに対応する解釈モデルを見出すことで、それらをどのように解決できるかを例示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The proposed approach is to formalise the probabilistic puzzle in equational
FOL. Two formalisations are needed: one theory for all models of the given
puzzle, and a second theory for the favorable models. Then Mace4 - that
computes all the interpretation models of a FOL theory - is called twice.
First, it is asked to compute all the possible models M p .Second, the
additional constraint is added, and Mace4 computes only favourabile models M f.
Finally, the definition of probability is applied: the number of favorable
models is divided by the number of possible models. The proposed approach
equips students from the logic tribe to find the correct solution for puzzles
from the probabilitistic tribe, by using their favourite instruments: modelling
and formalisation. I have exemplified here five probabilistic puzzles and how
they can be solved by translating the min FOL and then find the corresponding
interpretation models. Mace4 was the tool of choice here. Ongoing work is
investigating the limits of this method on various collections of probabilistic
puzzles
- Abstract(参考訳): 提案手法は方程式FOLにおける確率論的パズルの定式化である。
与えられたパズルのすべてのモデルに対する1つの理論と、好ましいモデルに対する2つ目の理論である。
次に、FOL理論のすべての解釈モデルを計算する Mace4 を2回呼び出す。
まず、可能なすべてのモデル Mp を計算するように要求される。
第二に、追加の制約が追加され、Mace4は優先モデルMfのみを算出する。
最後に、確率の定義が適用され、好ましいモデルの数は可能なモデルの数で分割される。
提案手法は,確率論的集団からのパズルの正しい解を見つけるために,論理的集団の学生に,モデリングと形式化という,彼らの好む道具を用いて提案する。
ここでは5つの確率的パズルを例示し、min folを翻訳して対応する解釈モデルを見つけることでどのように解くかを示します。
Mace4はここで選ぶツールだった。
確率論的パズルの様々なコレクションにおけるこの手法の限界についての研究
関連論文リスト
- Model Stealing for Any Low-Rank Language Model [25.16701867917684]
我々は、単純で数学的に計算可能な設定を研究することによって、言語モデルを盗むという理論的理解を構築する。
我々の主な成果は、低ランク分布を学習するための条件付きクエリモデルにおける効率的なアルゴリズムである。
これは、少なくとも理論的には、推論時に機械学習モデルがより複雑な問題を解くことができるという興味深い例である。
論文 参考訳(メタデータ) (2024-11-12T04:25:31Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Inference via Interpolation: Contrastive Representations Provably Enable Planning and Inference [110.47649327040392]
時系列データを考えると、“今後どうなるか?”や“どうやって来たのか?”といった質問に答えるにはどうすればよいでしょう?
これらの質問は、学習された表現の観点から、いかにコンパクトで閉じた形状の解が得られるかを示す。
論文 参考訳(メタデータ) (2024-03-06T22:27:30Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Thought Flow Nets: From Single Predictions to Trains of Model Thought [39.619001911390804]
人間が複雑な問題を解くと、すぐに決定が下されることはめったにない。
その代わり、彼らは直感的な決定から始まり、間違いを見つけ、矛盾を解決し、異なる仮説の間を飛び交う。
論文 参考訳(メタデータ) (2021-07-26T13:56:37Z) - PSD Representations for Effective Probability Models [117.35298398434628]
最近提案された非負関数に対する正半定値(PSD)モデルがこの目的に特に適していることを示す。
我々はPSDモデルの近似と一般化能力の両方を特徴付け、それらが強い理論的保証を享受していることを示す。
本研究では,PSDモデルの密度推定,決定理論,推論への応用への道を開く。
論文 参考訳(メタデータ) (2021-06-30T15:13:39Z) - Universal Regular Conditional Distributions via Probability
Measure-Valued Deep Neural Models [3.8073142980733]
提案したフレームワークを用いて構築されたモデルはすべて、$C(mathcalX,mathcalP_1(mathcalY))$で密集している。
提案モデルはまた、ほとんどのランダム化された機械学習モデルに存在するアレラトリック不確かさを汎用的に表現できることも示している。
論文 参考訳(メタデータ) (2021-05-17T11:34:09Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - Query Training: Learning a Worse Model to Infer Better Marginals in
Undirected Graphical Models with Hidden Variables [11.985433487639403]
確率的グラフィカルモデル(PGM)は、柔軟な方法でクエリできる知識のコンパクトな表現を提供する。
我々は,PGMを学習するメカニズムであるクエリトレーニング(QT)を導入し,それと組み合わせる近似推論アルゴリズムに最適化する。
実験により,QTを用いて隠れ変数を持つ8連結グリッドマルコフランダム場を学習できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T20:34:32Z) - Learning a Formula of Interpretability to Learn Interpretable Formulas [1.7616042687330642]
人間の解釈可能性の非対象プロキシのMLモデルが人間のフィードバックから学習可能であることを示す。
進化的シンボリック回帰について示す。
我々のアプローチは、次世代の解釈可能な(進化的な)MLアルゴリズムの設計のための重要なステップストーンである。
論文 参考訳(メタデータ) (2020-04-23T13:59:49Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。