論文の概要: Motivating explanations in Bayesian networks using MAP-independence
- arxiv url: http://arxiv.org/abs/2208.03121v1
- Date: Fri, 5 Aug 2022 12:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:37:22.427551
- Title: Motivating explanations in Bayesian networks using MAP-independence
- Title(参考訳): map-independentence を用いたベイズネットワークの動機付け説明
- Authors: Johan Kwisthout
- Abstract要約: ベイズネットワークにおいて、診断や分類は、仮説変数に対する最も確率の高い合同値の割り当ての計算として形式化される。
本稿では,MAP独立の概念を新たに導入し,この概念の意義を捉える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In decision support systems the motivation and justification of the system's
diagnosis or classification is crucial for the acceptance of the system by the
human user. In Bayesian networks a diagnosis or classification is typically
formalized as the computation of the most probable joint value assignment to
the hypothesis variables, given the observed values of the evidence variables
(generally known as the MAP problem). While solving the MAP problem gives the
most probable explanation of the evidence, the computation is a black box as
far as the human user is concerned and it does not give additional insights
that allow the user to appreciate and accept the decision. For example, a user
might want to know to whether an unobserved variable could potentially (upon
observation) impact the explanation, or whether it is irrelevant in this
aspect. In this paper we introduce a new concept, MAP- independence, which
tries to capture this notion of relevance, and explore its role towards a
potential justification of an inference to the best explanation. We formalize
several computational problems based on this concept and assess their
computational complexity.
- Abstract(参考訳): 意思決定支援システムでは、システムの診断や分類の動機付けと正当化が、ユーザによるシステム受容に不可欠である。
ベイズネットワークでは、証明変数(一般的にMAP問題として知られる)の観測値を考えると、診断または分類は通常、仮説変数に対する最も確率の高い結合値の割り当ての計算として定式化される。
MAP問題の解決はエビデンスに関する最も確実な説明を与えるが、計算は人間のユーザに関する限りはブラックボックスであり、ユーザが決定を理解し、受け入れるための追加の洞察を与えない。
例えば、ユーザーは、観測されていない変数が説明に潜在的に影響を及ぼすかどうか(上述)、あるいはこの側面で無関係であるかどうかを知りたいかもしれない。
本稿では,この関連性の概念を捉えようとする新しい概念であるmap- independentを紹介し,その役割を最善の説明への推論の正当化に向けて探究する。
この概念に基づき,いくつかの計算問題を定式化し,その計算複雑性を評価する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Explaining $\mathcal{ELH}$ Concept Descriptions through Counterfactual
Reasoning [3.5323691899538128]
分類を本質的に透過的に行う方法は、記述論理の概念を使用することである。
一つの解決策は、「異なる分類を得るために特徴値をどう変えなければならないか」という疑問に答えるために反事実を用いることである。
論文 参考訳(メタデータ) (2023-01-12T16:06:06Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - ADVISE: ADaptive Feature Relevance and VISual Explanations for
Convolutional Neural Networks [0.745554610293091]
本稿では,機能マップの各ユニットの関連性を定量化し,活用して視覚的説明を提供する新しい説明可能性手法であるADVISEを紹介する。
我々は、画像分類タスクにおいて、AlexNet、VGG16、ResNet50、XceptionをImageNetで事前訓練した上で、我々のアイデアを広く評価する。
さらに,ADVISEは衛生チェックをパスしながら,感度および実装独立性公理を満たすことを示す。
論文 参考訳(メタデータ) (2022-03-02T18:16:57Z) - A Bayesian Framework for Information-Theoretic Probing [51.98576673620385]
我々は、探索は相互情報を近似するものとみなすべきであると論じる。
これは、表現が元の文とターゲットタスクに関する全く同じ情報をエンコードしているというかなり直感的な結論を導いた。
本稿では,ベイズ的相互情報(Bayesian mutual information)と呼ぶものを測定するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-08T18:08:36Z) - Explaining Black-Box Algorithms Using Probabilistic Contrastive
Counterfactuals [7.727206277914709]
ブラックボックス決定システムを説明するための因果性に基づく原則的アプローチを提案する。
本稿では,変数の直接的および間接的影響が,アルゴリズムによる決定に与える影響を定量的に示す。
このような反事実は,アルゴリズムの決定に負の影響を受ける個人に対して,どのように行動可能なリコースを提供できるかを示す。
論文 参考訳(メタデータ) (2021-03-22T16:20:21Z) - A Taxonomy of Explainable Bayesian Networks [0.0]
ベイズネットワークにおける説明可能性の分類について紹介する。
我々は、モデルにおける説明可能性の既存の分類、推論または証拠を拡張して、決定の説明を含める。
論文 参考訳(メタデータ) (2021-01-28T07:29:57Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。