論文の概要: Explaining Explanations in Probabilistic Logic Programming
- arxiv url: http://arxiv.org/abs/2401.17045v1
- Date: Tue, 30 Jan 2024 14:27:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 14:42:00.349236
- Title: Explaining Explanations in Probabilistic Logic Programming
- Title(参考訳): 確率論理プログラミングにおける説明
- Authors: Germ\'an Vidal
- Abstract要約: 確率論的論理プログラミングは(知識表現のための)論理プログラミングと確率の組合せである。
この設定では、モデルは解釈可能であり、理解し易いと言うことができる。
本稿では,クエリ駆動推論機構の定義に基づく説明手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The emergence of tools based on artificial intelligence has also led to the
need of producing explanations which are understandable by a human being. In
some approaches, the system is not transparent (often referred to as a "black
box"), making it difficult to generate appropriate explanations. In this work,
though, we consider probabilistic logic programming, a combination of logic
programming (for knowledge representation) and probability (to model
uncertainty). In this setting, one can say that models are interpretable, which
eases its understanding. However, given a particular query, the usual notion of
"explanation" is associated with a set of choices, one for each random variable
of the model. Unfortunately, this set does not have a causal structure and, in
fact, some of the choices are actually irrelevant to the considered query. In
order to overcome these shortcomings, we present an approach to explaining
explanations which is based on the definition of a query-driven inference
mechanism for probabilistic logic programs.
- Abstract(参考訳): 人工知能に基づくツールの出現は、人間によって理解可能な説明を作成する必要ももたらした。
いくつかのアプローチでは、システムは透明ではない(しばしば「ブラックボックス」と呼ばれる)ため、適切な説明を生成するのが困難である。
しかし,本研究では,論理プログラミング(知識表現)と確率(不確かさをモデル化する)の組み合わせである確率的論理プログラミングを考える。
この設定では、モデルは解釈可能であり、理解が容易であると言える。
しかしながら、特定の問合せが与えられた場合、「説明」の通常の概念は、モデルの各確率変数に対して1つずつ選択される。
残念ながら、この集合は因果構造を持たず、実際、いくつかの選択は実際は考慮されたクエリとは無関係である。
これらの欠点を克服するために,確率論理プログラムのためのクエリ駆動推論機構の定義に基づく説明を説明する手法を提案する。
関連論文リスト
- "What if?" in Probabilistic Logic Programming [2.9005223064604078]
ProbLogプログラムは、特定の確率でのみ保持される事実を持つ論理プログラムである。
クエリに答えることによって、このProbLog言語を拡張します。
論文 参考訳(メタデータ) (2023-05-24T16:35:24Z) - A Simple Generative Model of Logical Reasoning and Statistical Learning [0.6853165736531939]
統計的学習と論理的推論は、AIの2つの主要な分野であり、人間のようなマシンインテリジェンスに統一されることが期待されている。
本稿では、論理的推論と統計的学習の単純なベイズモデルを提案する。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的知識を引き起こすかをモデル化する。
論文 参考訳(メタデータ) (2023-05-18T16:34:51Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Explanations as Programs in Probabilistic Logic Programming [0.0]
理解可能な説明の生成は、現代の人工知能システムに欠かせない特徴である。
本研究では,関係構造と不確実性を持つドメインをモデル化するのに有用な論理プログラミングの拡張である確率論的論理プログラミングについて考察する。
本稿では,複数の展開型変換によって与えられたクエリから生成されたプログラムとして説明が表現される新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-06T16:09:34Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Logical Credal Networks [87.25387518070411]
本稿では,論理と確率を組み合わせた先行モデルの多くを一般化した表現的確率論的論理である論理的クレダルネットワークを紹介する。
本稿では,不確実性のあるマスターミンドゲームを解くこと,クレジットカード詐欺を検出することを含む,最大後部推論タスクの性能について検討する。
論文 参考訳(メタデータ) (2021-09-25T00:00:47Z) - Aleatoric Description Logic for Probailistic Reasoning (Long Version) [0.2538209532048866]
Aleatoric description logic(英語版)は、エージェントがこれらのサイコロのバイアスについて主観的な信念を持つサイコロのロールによって、世界のアレータリックな出来事として不確実性をモデル化する。
これは主観的なベイズの記述論理を提供し、命題と関係は合理的なエージェントが何を賭けるかに応じて確率が割り当てられる。
いくつかの計算問題を考慮し、モデルチェックと整合性チェックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-30T07:47:36Z) - Probabilistic Sufficient Explanations [31.08715352013011]
確率論的に十分な説明を導入し、分類の例を特徴の「最も単純な」部分集合を選ぶものとして記述する。
保証をそのまま保ちつつ、所望の説明を見つけるためのスケーラブルなアルゴリズムを設計する。
本実験は, 十分な説明を求める上でのアルゴリズムの有効性を実証し, アンカーや論理的説明と比較して, その優位性を示すものである。
論文 参考訳(メタデータ) (2021-05-21T04:03:10Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Foundations of Reasoning with Uncertainty via Real-valued Logics [70.43924776071616]
我々は、本質的にすべての実数値論理をカバーするためにパラメータ化できる、音と強完全公理化を与える。
文のクラスは非常に豊かであり、各クラスは実数値論理の式の集合に対して可能な実値の集合を記述する。
論文 参考訳(メタデータ) (2020-08-06T02:13:11Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。