論文の概要: Measuring Perceived Trust in XAI-Assisted Decision-Making by Eliciting a
Mental Model
- arxiv url: http://arxiv.org/abs/2307.11765v1
- Date: Sat, 15 Jul 2023 08:00:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-30 04:16:27.183931
- Title: Measuring Perceived Trust in XAI-Assisted Decision-Making by Eliciting a
Mental Model
- Title(参考訳): 精神モデルによるxai支援意思決定における信頼感の測定
- Authors: Mohsen Abbaspour Onari, Isel Grau, Marco S. Nobile, and Yingqian Zhang
- Abstract要約: 本研究では,ユーザが認識する信頼度を,説明可能な人工知能(XAI)モデルで測定する手法を提案する。
ファジィ認知マップ(FCM)を用いたユーザのメンタルモデル作成
医療専門家(ME)は、知識に基づいて診断意思決定を行い、XAIモデルによって提供される予測と解釈を行う。
- 参考スコア(独自算出の注目度): 4.501583298195209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This empirical study proposes a novel methodology to measure users' perceived
trust in an Explainable Artificial Intelligence (XAI) model. To do so, users'
mental models are elicited using Fuzzy Cognitive Maps (FCMs). First, we exploit
an interpretable Machine Learning (ML) model to classify suspected COVID-19
patients into positive or negative cases. Then, Medical Experts' (MEs) conduct
a diagnostic decision-making task based on their knowledge and then prediction
and interpretations provided by the XAI model. In order to evaluate the impact
of interpretations on perceived trust, explanation satisfaction attributes are
rated by MEs through a survey. Then, they are considered as FCM's concepts to
determine their influences on each other and, ultimately, on the perceived
trust. Moreover, to consider MEs' mental subjectivity, fuzzy linguistic
variables are used to determine the strength of influences. After reaching the
steady state of FCMs, a quantified value is obtained to measure the perceived
trust of each ME. The results show that the quantified values can determine
whether MEs trust or distrust the XAI model. We analyze this behavior by
comparing the quantified values with MEs' performance in completing diagnostic
tasks.
- Abstract(参考訳): この実証研究は、ユーザが認識した信頼を、説明可能な人工知能(XAI)モデルで測定する新しい手法を提案する。
そのため、ユーザのメンタルモデルはファジィ認知マップ(fcms)を用いて誘導される。
まず、解釈可能な機械学習(ML)モデルを用いて、新型コロナウイルスの疑いのある患者をポジティブまたはネガティブなケースに分類する。
そして、医療専門家(ME)は、その知識に基づいて診断判断タスクを行い、XAIモデルが提供する予測と解釈を行う。
理解された信頼度に対する解釈の影響を評価するため,MESによる説明満足度特性の評価を行った。
そして、それらは互いに影響し合い、最終的には信頼感に影響を及ぼすというfcmの概念と見なされる。
さらに、MESの精神的主観性を考慮するために、ファジィ言語変数を用いて影響の強さを決定する。
FCMの定常状態に達した後、各MEの認識信頼度を測定するための定量値を得る。
その結果、定量化された値は、mesがxaiモデルを信頼するか不信であるかを判断できることがわかった。
診断タスクの完了時に、定量化値とMEsの性能を比較して分析する。
関連論文リスト
- Automated Trustworthiness Testing for Machine Learning Classifiers [3.3423762257383207]
本稿では,テキスト分類器が信頼に値するかどうかを判断する信頼度オラクルを自動生成するTOWERを提案する。
我々の仮説は、その説明中の単語が予測されたクラスと意味的に関連している場合、予測は信頼に値するというものである。
その結果,TOWERはノイズの増加に伴って信頼性の低下を検出することができるが,人為的ラベル付きデータセットに対して評価しても有効ではないことがわかった。
論文 参考訳(メタデータ) (2024-06-07T20:25:05Z) - To Trust or Not to Trust: Towards a novel approach to measure trust for XAI systems [0.7256915467062314]
本稿では,XAIシステムにおけるユーザ信頼度を測定するための新しい手法を提案する。
提案手法は,客観的な視点から評価指標と信頼指標を組み合わせる。
論文 参考訳(メタデータ) (2024-05-09T13:42:54Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Structural-Based Uncertainty in Deep Learning Across Anatomical Scales: Analysis in White Matter Lesion Segmentation [8.64414399041931]
不確実性定量化(英: Uncertainty Quantification、UQ)は、ホワイトマター病変(WML)セグメンテーションの文脈における、自動ディープラーニング(DL)ツールの信頼性の指標である。
我々は, 構造的予測の相違から, 病変や患者スケールの不確かさを定量化する尺度を開発した。
444例の多心MRIデータから, 病変のモデル誤差をより効果的に把握し, 患者規模を計測できることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T13:04:57Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - Reliable and Trustworthy Machine Learning for Health Using Dataset Shift
Detection [7.263558963357268]
予測不能なMLモデルの振る舞いは、特に健康領域において、その安全性に対する深刻な懸念を引き起こす。
マハラノビス距離およびグラム行列に基づく分布外検出法は,分布外データを高精度に検出できることを示す。
次に、アウト・オブ・ディストリビューションスコアを人間の解釈可能なConFIDENCE SCOREに変換し、ユーザーの健康MLアプリケーションとのインタラクションに与える影響を調査する。
論文 参考訳(メタデータ) (2021-10-26T20:49:01Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。