論文の概要: To Trust or Not to Trust: Towards a novel approach to measure trust for XAI systems
- arxiv url: http://arxiv.org/abs/2405.05766v1
- Date: Thu, 9 May 2024 13:42:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 13:23:01.086293
- Title: To Trust or Not to Trust: Towards a novel approach to measure trust for XAI systems
- Title(参考訳): 信頼か信頼か: XAI システムの信頼を測る新しいアプローチを目指して
- Authors: Miquel Miró-Nicolau, Gabriel Moyà-Alcover, Antoni Jaume-i-Capó, Manuel González-Hidalgo, Maria Gemma Sempere Campello, Juan Antonio Palmer Sancho,
- Abstract要約: 本稿では,XAIシステムにおけるユーザ信頼度を測定するための新しい手法を提案する。
提案手法は,客観的な視点から評価指標と信頼指標を組み合わせる。
- 参考スコア(独自算出の注目度): 0.7256915467062314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing reliance on Deep Learning models, combined with their inherent lack of transparency, has spurred the development of a novel field of study known as eXplainable AI (XAI) methods. These methods seek to enhance the trust of end-users in automated systems by providing insights into the rationale behind their decisions. This paper presents a novel approach for measuring user trust in XAI systems, allowing their refinement. Our proposed metric combines both performance metrics and trust indicators from an objective perspective. To validate this novel methodology, we conducted a case study in a realistic medical scenario: the usage of XAI system for the detection of pneumonia from x-ray images.
- Abstract(参考訳): ディープラーニングモデルへの依存度の増加と、その固有の透明性の欠如が組み合わさって、eXplainable AI(XAI)メソッドとして知られる新しい研究分野の開発を加速させた。
これらの手法は、自動システムにおけるエンドユーザの信頼を高めるために、意思決定の背後にある理論的根拠に関する洞察を提供することを目的としている。
本稿では,XAIシステムにおけるユーザ信頼度を測定するための新しい手法を提案する。
提案手法は,客観的な視点から評価指標と信頼指標を組み合わせる。
この新手法を検証するため,X線画像から肺炎を検出するためのXAIシステムを用いた症例スタディを現実的な医療シナリオで実施した。
関連論文リスト
- VERA: Validation and Evaluation of Retrieval-Augmented Systems [5.709401805125129]
VERAは、大規模言語モデル(LLM)からの出力の透明性と信頼性を高めるために設計されたフレームワークである。
VERAが意思決定プロセスを強化し、AIアプリケーションへの信頼を高める方法を示す。
論文 参考訳(メタデータ) (2024-08-16T21:59:59Z) - A comprehensive study on fidelity metrics for XAI [0.0]
我々は、フィールド内のオープンな質問であるXAIメソッドを正しく選択する方法に焦点をあてる。
いくつかの著者が、異なるXAI手法の忠実度を近似する指標を提案している。
本稿では,よく知られた透明なモデル,すなわち決定木を用いて,忠実度を検証するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-19T11:35:52Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - Measuring Perceived Trust in XAI-Assisted Decision-Making by Eliciting a
Mental Model [4.501583298195209]
本研究では,ユーザが認識する信頼度を,説明可能な人工知能(XAI)モデルで測定する手法を提案する。
ファジィ認知マップ(FCM)を用いたユーザのメンタルモデル作成
医療専門家(ME)は、知識に基づいて診断意思決定を行い、XAIモデルによって提供される予測と解釈を行う。
論文 参考訳(メタデータ) (2023-07-15T08:00:47Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - Attribution-based XAI Methods in Computer Vision: A Review [5.076419064097734]
コンピュータビジョンにおける属性に基づくXAI手法の総合的な調査を行う。
我々は、XAIの勾配に基づく、摂動に基づく、および対照的な手法に関する既存の文献をレビューする。
論文 参考訳(メタデータ) (2022-11-27T05:56:36Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。