論文の概要: Towards the new XAI: A Hypothesis-Driven Approach to Decision Support
Using Evidence
- arxiv url: http://arxiv.org/abs/2402.01292v1
- Date: Fri, 2 Feb 2024 10:28:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:05:27.869489
- Title: Towards the new XAI: A Hypothesis-Driven Approach to Decision Support
Using Evidence
- Title(参考訳): 新しいXAIに向けて:エビデンスを用いた仮説駆動による意思決定支援
- Authors: Thao Le, Tim Miller, Ronal Singh, Liz Sonenberg
- Abstract要約: We describe and evaluation an approach for hypothesis-driven AI based on the Weight of Evidence (WoE) framework。
我々の仮説駆動アプローチは、推奨駆動アプローチやAI説明のみのベースラインと比較して、決定精度を高め、信頼性を低下させることを示す。
- 参考スコア(独自算出の注目度): 10.833072345714722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior research on AI-assisted human decision-making has explored several
different explainable AI (XAI) approaches. A recent paper has proposed a
paradigm shift calling for hypothesis-driven XAI through a conceptual framework
called evaluative AI that gives people evidence that supports or refutes
hypotheses without necessarily giving a decision-aid recommendation. In this
paper we describe and evaluate an approach for hypothesis-driven XAI based on
the Weight of Evidence (WoE) framework, which generates both positive and
negative evidence for a given hypothesis. Through human behavioural
experiments, we show that our hypothesis-driven approach increases decision
accuracy, reduces reliance compared to a recommendation-driven approach and an
AI-explanation-only baseline, but with a small increase in under-reliance
compared to the recommendation-driven approach. Further, we show that
participants used our hypothesis-driven approach in a materially different way
to the two baselines.
- Abstract(参考訳): AIによる人的意思決定に関する以前の研究では、いくつかの異なる説明可能なAI(XAI)アプローチが検討されている。
最近の論文では、評価的ai(evaluative ai)と呼ばれる概念フレームワークを通じて仮説駆動のxaiを求めるパラダイムシフトを提案している。
本稿では,ある仮説に対する肯定的かつ否定的な証拠を生成するWoE(Weight of Evidence)フレームワークに基づく仮説駆動型XAIのアプローチを記述し,評価する。
人間の行動実験を通じて,我々の仮説駆動アプローチは意思決定精度を高め,レコメンデーション駆動アプローチやai説明のみベースラインに比べて信頼度を低下させるが,レコメンデーション駆動アプローチに比べて低信頼度は少ないことを示した。
さらに、被験者は2つのベースラインと実質的に異なる方法で仮説駆動のアプローチを使用した。
関連論文リスト
- An Empirical Examination of the Evaluative AI Framework [0.0]
本研究は,AIユーザの意思決定プロセスを強化することを目的とした「評価AI」フレームワークを実証的に検討する。
このフレームワークは、直接的なレコメンデーションを提供するのではなく、ユーザがより情報的な決定をサポートするための仮説を証明し、証明する。
論文 参考訳(メタデータ) (2024-11-13T13:03:49Z) - Explainable and Human-Grounded AI for Decision Support Systems: The Theory of Epistemic Quasi-Partnerships [0.0]
我々は、倫理的で説明可能なAI(XAI)の要求を満たすことは、人間の意思決定者に3種類の人為的説明を提供するAI-DSSを開発することであると論じている。
優れた人為的理由を構成するものに関する現在の理論が、この証拠を適切に説明していないか、あるいは開発に健全な倫理的アドバイスを提供していないかを実証する。
論文 参考訳(メタデータ) (2024-09-23T09:14:25Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Interventional Imbalanced Multi-Modal Representation Learning via $β$-Generalization Front-Door Criterion [17.702549833449435]
マルチモーダル法はユニモーダル法よりも包括的な優越性を確立する。
タスク依存予測に対する異なるモダリティの不均衡な寄与は、正準多モード法の識別性能を常に低下させる。
ベンチマークメソッドは、トレーニング中にわずかな貢献で補助的なモダリティを増大させるという、トラクタブルなソリューションを提起する。
論文 参考訳(メタデータ) (2024-06-17T12:55:56Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - A System's Approach Taxonomy for User-Centred XAI: A Survey [0.6882042556551609]
本稿では,一般システム理論の原理に基づく総合的,包括的でユーザ中心のXAI分類法を提案する。
これは、開発者とエンドユーザの両方を含むすべてのユーザタイプに対するXAIアプローチの適切性を評価する基盤を提供する。
論文 参考訳(メタデータ) (2023-03-06T00:50:23Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - Excess risk analysis for epistemic uncertainty with application to
variational inference [110.4676591819618]
我々は、未知の分布からデータが生成される頻繁なセッティングにおいて、新しいEU分析を提示する。
一般化能力と、予測分布の分散やエントロピーなど、広く使用されているEUの測定値との関係を示す。
本研究では,PAC-ベイジアン理論に基づく予測とEU評価性能を直接制御する新しい変分推論を提案する。
論文 参考訳(メタデータ) (2022-06-02T12:12:24Z) - On the Relationship Between Explanations, Fairness Perceptions, and
Decisions [2.5372245630249632]
AIベースのシステムのレコメンデーションは誤りか不公平であることが知られている。
人間は最終決定者となることがしばしば提案される。
以前の研究は、説明は人間の意思決定者が意思決定の質を高めるのに必須の道であると主張した。
論文 参考訳(メタデータ) (2022-04-27T19:33:36Z) - Reinforcement Learning with Heterogeneous Data: Estimation and Inference [84.72174994749305]
人口の不均一性に関する逐次的決定問題に対処するために,K-ヘテロ・マルコフ決定過程(K-ヘテロ・MDP)を導入する。
本稿では、ある政策の価値を推定するための自己クラスタ化政策評価(ACPE)と、ある政策クラスにおける最適な政策を推定するための自己クラスタ化政策イテレーション(ACPI)を提案する。
理論的な知見を裏付けるシミュレーションを行い,MIMIC-III標準データセットの実証的研究を行った。
論文 参考訳(メタデータ) (2022-01-31T20:58:47Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。