論文の概要: Towards the New XAI: A Hypothesis-Driven Approach to Decision Support Using Evidence
- arxiv url: http://arxiv.org/abs/2402.01292v2
- Date: Sun, 28 Apr 2024 03:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 23:45:39.113269
- Title: Towards the New XAI: A Hypothesis-Driven Approach to Decision Support Using Evidence
- Title(参考訳): 新しいXAIに向けて:エビデンスを用いた仮説駆動による意思決定支援
- Authors: Thao Le, Tim Miller, Liz Sonenberg, Ronal Singh,
- Abstract要約: We describe and evaluation an approach for hypothesis-driven AI based on the Weight of Evidence (WoE) framework。
仮説駆動アプローチは,提案手法と比較して決定精度を高め,信頼度を低下させることを示す。
- 参考スコア(独自算出の注目度): 9.916507773707917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior research on AI-assisted human decision-making has explored several different explainable AI (XAI) approaches. A recent paper has proposed a paradigm shift calling for hypothesis-driven XAI through a conceptual framework called evaluative AI that gives people evidence that supports or refutes hypotheses without necessarily giving a decision-aid recommendation. In this paper, we describe and evaluate an approach for hypothesis-driven XAI based on the Weight of Evidence (WoE) framework, which generates both positive and negative evidence for a given hypothesis. Through human behavioural experiments, we show that our hypothesis-driven approach increases decision accuracy and reduces reliance compared to a recommendation-driven approach and an AI-explanation-only baseline, but with a small increase in under-reliance compared to the recommendation-driven approach. Further, we show that participants used our hypothesis-driven approach in a materially different way to the two baselines.
- Abstract(参考訳): AIによる人的意思決定に関する以前の研究では、いくつかの異なる説明可能なAI(XAI)アプローチが検討されている。
近年の論文では、仮説駆動型XAIを評価AI(evaluative AI)と呼ばれる概念的枠組みで呼び出すパラダイムシフトが提案されている。
本稿では,ある仮説に対する肯定的かつ否定的な証拠を生成するWoE(Weight of Evidence)フレームワークに基づく仮説駆動型XAIのアプローチを記述し,評価する。
人間の行動実験を通じて、仮説駆動のアプローチは、推奨駆動のアプローチやAI説明のみのベースラインと比較して、決定精度を高め、信頼度を低減するが、推奨駆動のアプローチに比べて、信頼度の低いアプローチは少ないことを示す。
さらに、被験者は仮説駆動のアプローチを2つの基準線に対して実質的に異なる方法で用いた。
関連論文リスト
- Explainable and Human-Grounded AI for Decision Support Systems: The Theory of Epistemic Quasi-Partnerships [0.0]
我々は、倫理的で説明可能なAI(XAI)の要求を満たすことは、人間の意思決定者に3種類の人為的説明を提供するAI-DSSを開発することであると論じている。
優れた人為的理由を構成するものに関する現在の理論が、この証拠を適切に説明していないか、あるいは開発に健全な倫理的アドバイスを提供していないかを実証する。
論文 参考訳(メタデータ) (2024-09-23T09:14:25Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Interventional Imbalanced Multi-Modal Representation Learning via $β$-Generalization Front-Door Criterion [17.702549833449435]
マルチモーダル法はユニモーダル法よりも包括的な優越性を確立する。
タスク依存予測に対する異なるモダリティの不均衡な寄与は、正準多モード法の識別性能を常に低下させる。
ベンチマークメソッドは、トレーニング中にわずかな貢献で補助的なモダリティを増大させるという、トラクタブルなソリューションを提起する。
論文 参考訳(メタデータ) (2024-06-17T12:55:56Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - A System's Approach Taxonomy for User-Centred XAI: A Survey [0.6882042556551609]
本稿では,一般システム理論の原理に基づく総合的,包括的でユーザ中心のXAI分類法を提案する。
これは、開発者とエンドユーザの両方を含むすべてのユーザタイプに対するXAIアプローチの適切性を評価する基盤を提供する。
論文 参考訳(メタデータ) (2023-03-06T00:50:23Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - On the Evaluation of the Plausibility and Faithfulness of Sentiment
Analysis Explanations [2.071923272918415]
2つの角度からSAモデルの説明可能性を評価するために,異なる指標と手法を提案する。
まず,抽出した「有理数」の強度を評価し,予測結果の忠実な説明を行う。
第2に、自家製のデータセット上で、ExAI法と人的判断の一致を計測する。
論文 参考訳(メタデータ) (2022-10-13T11:29:17Z) - Excess risk analysis for epistemic uncertainty with application to
variational inference [110.4676591819618]
我々は、未知の分布からデータが生成される頻繁なセッティングにおいて、新しいEU分析を提示する。
一般化能力と、予測分布の分散やエントロピーなど、広く使用されているEUの測定値との関係を示す。
本研究では,PAC-ベイジアン理論に基づく予測とEU評価性能を直接制御する新しい変分推論を提案する。
論文 参考訳(メタデータ) (2022-06-02T12:12:24Z) - On the Relationship Between Explanations, Fairness Perceptions, and
Decisions [2.5372245630249632]
AIベースのシステムのレコメンデーションは誤りか不公平であることが知られている。
人間は最終決定者となることがしばしば提案される。
以前の研究は、説明は人間の意思決定者が意思決定の質を高めるのに必須の道であると主張した。
論文 参考訳(メタデータ) (2022-04-27T19:33:36Z) - Reinforcement Learning with Heterogeneous Data: Estimation and Inference [84.72174994749305]
人口の不均一性に関する逐次的決定問題に対処するために,K-ヘテロ・マルコフ決定過程(K-ヘテロ・MDP)を導入する。
本稿では、ある政策の価値を推定するための自己クラスタ化政策評価(ACPE)と、ある政策クラスにおける最適な政策を推定するための自己クラスタ化政策イテレーション(ACPI)を提案する。
理論的な知見を裏付けるシミュレーションを行い,MIMIC-III標準データセットの実証的研究を行った。
論文 参考訳(メタデータ) (2022-01-31T20:58:47Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。