論文の概要: Towards the new XAI: A Hypothesis-Driven Approach to Decision Support
Using Evidence
- arxiv url: http://arxiv.org/abs/2402.01292v1
- Date: Fri, 2 Feb 2024 10:28:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:05:27.869489
- Title: Towards the new XAI: A Hypothesis-Driven Approach to Decision Support
Using Evidence
- Title(参考訳): 新しいXAIに向けて:エビデンスを用いた仮説駆動による意思決定支援
- Authors: Thao Le, Tim Miller, Ronal Singh, Liz Sonenberg
- Abstract要約: We describe and evaluation an approach for hypothesis-driven AI based on the Weight of Evidence (WoE) framework。
我々の仮説駆動アプローチは、推奨駆動アプローチやAI説明のみのベースラインと比較して、決定精度を高め、信頼性を低下させることを示す。
- 参考スコア(独自算出の注目度): 10.833072345714722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior research on AI-assisted human decision-making has explored several
different explainable AI (XAI) approaches. A recent paper has proposed a
paradigm shift calling for hypothesis-driven XAI through a conceptual framework
called evaluative AI that gives people evidence that supports or refutes
hypotheses without necessarily giving a decision-aid recommendation. In this
paper we describe and evaluate an approach for hypothesis-driven XAI based on
the Weight of Evidence (WoE) framework, which generates both positive and
negative evidence for a given hypothesis. Through human behavioural
experiments, we show that our hypothesis-driven approach increases decision
accuracy, reduces reliance compared to a recommendation-driven approach and an
AI-explanation-only baseline, but with a small increase in under-reliance
compared to the recommendation-driven approach. Further, we show that
participants used our hypothesis-driven approach in a materially different way
to the two baselines.
- Abstract(参考訳): AIによる人的意思決定に関する以前の研究では、いくつかの異なる説明可能なAI(XAI)アプローチが検討されている。
最近の論文では、評価的ai(evaluative ai)と呼ばれる概念フレームワークを通じて仮説駆動のxaiを求めるパラダイムシフトを提案している。
本稿では,ある仮説に対する肯定的かつ否定的な証拠を生成するWoE(Weight of Evidence)フレームワークに基づく仮説駆動型XAIのアプローチを記述し,評価する。
人間の行動実験を通じて,我々の仮説駆動アプローチは意思決定精度を高め,レコメンデーション駆動アプローチやai説明のみベースラインに比べて信頼度を低下させるが,レコメンデーション駆動アプローチに比べて低信頼度は少ないことを示した。
さらに、被験者は2つのベースラインと実質的に異なる方法で仮説駆動のアプローチを使用した。
関連論文リスト
- Negotiating the Shared Agency between Humans & AI in the Recommender System [1.4249472316161877]
ユーザエージェンシーに関する懸念は、固有の不透明性(情報非対称性)とアルゴリズムにおける一方的な出力(パワー非対称性)の性質から生じている。
我々は,エージェントの種類がユーザの知覚や経験にどのように影響するかを理解し,人間とAIの対話システムのためのガイドラインや設計を洗練するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-03-23T19:23:08Z) - Pioneering EEG Motor Imagery Classification Through Counterfactual
Analysis [26.859082755430595]
我々は,反実的説明(CE)に対する新しい非生成的アプローチを導入し,探求する。
本手法は,時間周波数解析から得られたパッチを戦略的に交換することで,モデルの意思決定過程を評価する。
実験結果は,提案手法の有効性を検証するだけでなく,モデルの予測能力に対する人間的信頼を高めるためにも有効である。
論文 参考訳(メタデータ) (2023-11-10T08:22:09Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - A System's Approach Taxonomy for User-Centred XAI: A Survey [0.6882042556551609]
本稿では,一般システム理論の原理に基づく総合的,包括的でユーザ中心のXAI分類法を提案する。
これは、開発者とエンドユーザの両方を含むすべてのユーザタイプに対するXAIアプローチの適切性を評価する基盤を提供する。
論文 参考訳(メタデータ) (2023-03-06T00:50:23Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - On the Evaluation of the Plausibility and Faithfulness of Sentiment
Analysis Explanations [2.071923272918415]
2つの角度からSAモデルの説明可能性を評価するために,異なる指標と手法を提案する。
まず,抽出した「有理数」の強度を評価し,予測結果の忠実な説明を行う。
第2に、自家製のデータセット上で、ExAI法と人的判断の一致を計測する。
論文 参考訳(メタデータ) (2022-10-13T11:29:17Z) - Excess risk analysis for epistemic uncertainty with application to
variational inference [110.4676591819618]
我々は、未知の分布からデータが生成される頻繁なセッティングにおいて、新しいEU分析を提示する。
一般化能力と、予測分布の分散やエントロピーなど、広く使用されているEUの測定値との関係を示す。
本研究では,PAC-ベイジアン理論に基づく予測とEU評価性能を直接制御する新しい変分推論を提案する。
論文 参考訳(メタデータ) (2022-06-02T12:12:24Z) - On the Relationship Between Explanations, Fairness Perceptions, and
Decisions [2.5372245630249632]
AIベースのシステムのレコメンデーションは誤りか不公平であることが知られている。
人間は最終決定者となることがしばしば提案される。
以前の研究は、説明は人間の意思決定者が意思決定の質を高めるのに必須の道であると主張した。
論文 参考訳(メタデータ) (2022-04-27T19:33:36Z) - Reinforcement Learning with Heterogeneous Data: Estimation and Inference [84.72174994749305]
人口の不均一性に関する逐次的決定問題に対処するために,K-ヘテロ・マルコフ決定過程(K-ヘテロ・MDP)を導入する。
本稿では、ある政策の価値を推定するための自己クラスタ化政策評価(ACPE)と、ある政策クラスにおける最適な政策を推定するための自己クラスタ化政策イテレーション(ACPI)を提案する。
理論的な知見を裏付けるシミュレーションを行い,MIMIC-III標準データセットの実証的研究を行った。
論文 参考訳(メタデータ) (2022-01-31T20:58:47Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。