論文の概要: Explaining Bayesian Networks in Natural Language using Factor Arguments. Evaluation in the medical domain
- arxiv url: http://arxiv.org/abs/2410.18060v1
- Date: Wed, 23 Oct 2024 17:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:55:08.730526
- Title: Explaining Bayesian Networks in Natural Language using Factor Arguments. Evaluation in the medical domain
- Title(参考訳): 因子論による自然言語のベイズ的ネットワークの解説 医療領域における評価
- Authors: Jaime Sevilla, Nikolay Babakov, Ehud Reiter, Alberto Bugarin,
- Abstract要約: 因子論の独立性の概念を導入し、議論がいつ共同で、あるいは別々に提示されるべきかという問題に対処する。
本稿では,その強みによって順序付けられたすべての独立因子の引数のリストを生成するアルゴリズムを提案する。
本提案は,ヒトによる評価研究を通じて,医学領域において検証されている。
- 参考スコア(独自算出の注目度): 5.999262679775618
- License:
- Abstract: In this paper, we propose a model for building natural language explanations for Bayesian Network Reasoning in terms of factor arguments, which are argumentation graphs of flowing evidence, relating the observed evidence to a target variable we want to learn about. We introduce the notion of factor argument independence to address the outstanding question of defining when arguments should be presented jointly or separately and present an algorithm that, starting from the evidence nodes and a target node, produces a list of all independent factor arguments ordered by their strength. Finally, we implemented a scheme to build natural language explanations of Bayesian Reasoning using this approach. Our proposal has been validated in the medical domain through a human-driven evaluation study where we compare the Bayesian Network Reasoning explanations obtained using factor arguments with an alternative explanation method. Evaluation results indicate that our proposed explanation approach is deemed by users as significantly more useful for understanding Bayesian Network Reasoning than another existing explanation method it is compared to.
- Abstract(参考訳): 本稿では, ベイジアンネットワーク推論のための自然言語記述モデルを提案する。これは, フローする証拠の議論グラフであり, 観測された証拠を学習したい対象変数に関連付ける。
本稿では,要素論の独立性の概念を導入し,議論がいつ個別に提示されるべきかという未解決の問題に対処し,エビデンスノードと対象ノードから始まるアルゴリズムで,その強みによって順序付けられたすべての独立因子論の一覧を生成する。
最後に,この手法を用いてベイズ推論を自然言語で説明する手法を実装した。
提案手法は, ベイジアンネットワーク推論による説明と, 代替的説明法を用いて得られた説明とを比較検討し, 医療領域で検証した。
評価結果から,提案手法はベイジアンネットワーク推論の理解に有用であると考えられる。
関連論文リスト
- When factorization meets argumentation: towards argumentative explanations [0.0]
因数分解に基づく手法と議論フレームワーク(AF)を組み合わせた新しいモデルを提案する。
我々のフレームワークは、ユーザコンテキストなどのサイド情報をシームレスに組み込んで、より正確な予測を可能にします。
論文 参考訳(メタデータ) (2024-05-13T19:16:28Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Explaining Causal Models with Argumentation: the Case of Bi-variate
Reinforcement [15.947501347927687]
因果モデルから議論フレームワーク(AF)を生成するための概念化を導入する。
この概念化は、AFの意味論の望ましい性質を説明型として再解釈することに基づいている。
我々はこれらの論証的説明の理論的評価を行い、それらが望ましい説明的および論証的特性の範囲を満たすかどうかを検討する。
論文 参考訳(メタデータ) (2022-05-23T19:39:51Z) - Argumentative Explanations for Pattern-Based Text Classifiers [15.81939090849456]
文分類のためのパターンベースロジスティック回帰(PLR)という,特定の解釈可能なモデルの説明に焦点をあてる。
本稿では,AXPLRを提案する。AXPLRは,計算論法を用いて説明文を生成する新しい説明法である。
論文 参考訳(メタデータ) (2022-05-22T21:16:49Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Finding, Scoring and Explaining Arguments in Bayesian Networks [0.0]
独立引数の概念を定義し,関連する独立引数のリストを抽出するアルゴリズムを提案する。
議論の関連性を示すために、抽出した議論を用いてメッセージパッシングを近似する方法を示す。
論文 参考訳(メタデータ) (2021-11-30T12:41:04Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Local Explanation of Dialogue Response Generation [77.68077106724522]
反応生成の局所的説明(LERG)は、生成モデルの推論過程に関する洞察を得るために提案される。
LERGは、シーケンス予測を人間の応答の不確実性推定とみなし、入力を摂動させ、人間の応答に対する確実性の変化を計算することによって説明を作成する。
提案手法は, 提案手法を改良し, 提案手法の4.4~12.8%を改良した。
論文 参考訳(メタデータ) (2021-06-11T17:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。