論文の概要: An Incremental Explanation of Inference in Hybrid Bayesian Networks for
Increasing Model Trustworthiness and Supporting Clinical Decision Making
- arxiv url: http://arxiv.org/abs/2003.02599v2
- Date: Fri, 6 Mar 2020 10:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:13:52.892877
- Title: An Incremental Explanation of Inference in Hybrid Bayesian Networks for
Increasing Model Trustworthiness and Supporting Clinical Decision Making
- Title(参考訳): ハイブリッドベイズネットワークにおけるモデル信頼度向上と臨床意思決定支援のための推論の漸進的説明
- Authors: Evangelia Kyrimi, Somayyeh Mossadegh, Nigel Tai, William Marsh
- Abstract要約: 臨床医は、予測を理解し、信頼できるなら、モデルを使う可能性が高い。
ベイズネットワーク(BN)モデルはブラックボックスではないという利点があり、その理由を説明することができる。
本稿では,ハイブリッドBNに適用可能な推論の漸進的な説明を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Various AI models are increasingly being considered as part of clinical
decision-support tools. However, the trustworthiness of such models is rarely
considered. Clinicians are more likely to use a model if they can understand
and trust its predictions. Key to this is if its underlying reasoning can be
explained. A Bayesian network (BN) model has the advantage that it is not a
black-box and its reasoning can be explained. In this paper, we propose an
incremental explanation of inference that can be applied to hybrid BNs, i.e.
those that contain both discrete and continuous nodes. The key questions that
we answer are: (1) which important evidence supports or contradicts the
prediction, and (2) through which intermediate variables does the information
flow. The explanation is illustrated using a real clinical case study. A small
evaluation study is also conducted.
- Abstract(参考訳): 様々なAIモデルは、臨床意思決定支援ツールの一部として、ますます検討されている。
しかし、そのようなモデルの信頼性はまれである。
臨床医は、予測を理解し信頼できれば、モデルを使う可能性が高い。
これの鍵は、その根底にある推論を説明できるかどうかである。
ベイズネットワーク(BN)モデルはブラックボックスではないという利点があり、その理由を説明することができる。
本稿では,離散ノードと連続ノードの両方を含むハイブリッドBNに適用可能な推論の漸進的な説明を提案する。
私たちが答える重要な質問は、(1)重要な証拠が予測を支持したり、矛盾したりするか、(2)中間変数が情報フローを行うか、である。
この説明は実際の臨床ケーススタディで示される。
小規模な評価研究も行われている。
関連論文リスト
- Counterfactual explainability of black-box prediction models [4.14360329494344]
ブラックボックス予測モデルに対する対実的説明可能性という新しい概念を提案する。
対物的説明可能性には3つの大きな利点がある。
論文 参考訳(メタデータ) (2024-11-03T16:29:09Z) - Bayesian Kolmogorov Arnold Networks (Bayesian_KANs): A Probabilistic Approach to Enhance Accuracy and Interpretability [1.90365714903665]
本研究では,Bayesian Kolmogorov Arnold Networks(BKANs)と呼ばれる新しいフレームワークを提案する。
BKANはコルモゴロフ・アーノルドネットワークの表現能力とベイズ推定を組み合わせたものである。
提案手法は,予測信頼度と決定境界に関する有用な知見を提供し,予測精度の観点から従来のディープラーニングモデルより優れている。
論文 参考訳(メタデータ) (2024-08-05T10:38:34Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - This changes to that : Combining causal and non-causal explanations to
generate disease progression in capsule endoscopy [5.287156503763459]
本稿では,モデル依存型と非依存型の両方を組み合わせて説明セットを生成する統一的説明手法を提案する。
生成された説明はサンプルの近傍で一貫性があり、画像の内容と結果の因果関係を明らかにすることができる。
論文 参考訳(メタデータ) (2022-12-05T12:46:19Z) - UKP-SQuARE v2 Explainability and Adversarial Attacks for Trustworthy QA [47.8796570442486]
質問回答システムは、現実の意思決定をサポートするアプリケーションにますますデプロイされています。
本質的に解釈可能なモデルやポストホックな説明可能性メソッドは、モデルがその予測にどのように到着するかをユーザが理解するのに役立ちます。
SQuAREの新バージョンであるSQuARE v2を導入し、モデルを比較するための説明可能性インフラストラクチャを提供する。
論文 参考訳(メタデータ) (2022-08-19T13:01:01Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - A Taxonomy of Explainable Bayesian Networks [0.0]
ベイズネットワークにおける説明可能性の分類について紹介する。
我々は、モデルにおける説明可能性の既存の分類、推論または証拠を拡張して、決定の説明を含める。
論文 参考訳(メタデータ) (2021-01-28T07:29:57Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。