論文の概要: Uncertainty Awareness and Trust in Explainable AI- On Trust Calibration using Local and Global Explanations
- arxiv url: http://arxiv.org/abs/2509.08989v1
- Date: Wed, 10 Sep 2025 20:37:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.144249
- Title: Uncertainty Awareness and Trust in Explainable AI- On Trust Calibration using Local and Global Explanations
- Title(参考訳): 説明可能なAIにおける不確実性と信頼-局所的・グローバル的説明を用いた信頼の校正について
- Authors: Carina Newen, Daniel Bodemer, Sonja Glantz, Emmanuel Müller, Magdalena Wischnewski, Lenka Schnaubert,
- Abstract要約: 我々は不確実性の説明に焦点をあて、XAIスキームの一般的なガイドラインから除外されることが多い世界的説明について考察する。
我々は,不確実性,ロバスト性,グローバルXAIなど,さまざまな概念を同時にカバーするアルゴリズムを選択し,信頼性を校正する能力を検証した。
そして、より直感的な視覚的理解を提供することを目的としたアルゴリズムが、理解が複雑であるにもかかわらず、より高いユーザ満足度と人間の解釈可能性を提供できるかどうかを確認した。
- 参考スコア(独自算出の注目度): 6.420315506131893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI has become a common term in the literature, scrutinized by computer scientists and statisticians and highlighted by psychological or philosophical researchers. One major effort many researchers tackle is constructing general guidelines for XAI schemes, which we derived from our study. While some areas of XAI are well studied, we focus on uncertainty explanations and consider global explanations, which are often left out. We chose an algorithm that covers various concepts simultaneously, such as uncertainty, robustness, and global XAI, and tested its ability to calibrate trust. We then checked whether an algorithm that aims to provide more of an intuitive visual understanding, despite being complicated to understand, can provide higher user satisfaction and human interpretability.
- Abstract(参考訳): 説明可能なAIは、コンピュータ科学者や統計学者によって精査され、心理学や哲学の研究者によって強調され、文学において一般的な用語となっている。
多くの研究者が取り組む主な取り組みの1つは、我々の研究から得られたXAIスキームの一般的なガイドラインの構築である。
XAIのいくつかの領域はよく研究されているが、不確実性の説明に焦点をあて、世界的説明を考察する。
我々は,不確実性,ロバスト性,グローバルXAIなど,さまざまな概念を同時にカバーするアルゴリズムを選択し,信頼性を校正する能力を検証した。
そして、より直感的な視覚的理解を提供することを目的としたアルゴリズムが、理解が複雑であるにもかかわらず、より高いユーザ満足度と人間の解釈可能性を提供できるかどうかを確認した。
関連論文リスト
- A Comprehensive Perspective on Explainable AI across the Machine Learning Workflow [1.269939585263915]
Holistic Explainable Artificial Intelligence (HXAI)は、データ分析ワークフローのすべてのステージに説明を埋め込む、ユーザ中心のフレームワークである。
HXAIは6つのコンポーネント(データ、分析設定、学習プロセス、モデル出力、モデル品質、通信チャネル)を単一の分類体系に統合する。
112項目の質問銀行がこれらのニーズをカバーしています。
論文 参考訳(メタデータ) (2025-08-15T15:15:25Z) - Beyond Statistical Learning: Exact Learning Is Essential for General Intelligence [59.07578850674114]
音の誘惑的推論は、一般知能の必然的に望ましい側面である。
もっとも先進的なフロンティアシステムでさえ、定期的かつ一貫して容易に解決可能な推論タスクに干渉していることは、よく文書化されている。
彼らの不健全な振る舞いは、彼らの発展を支えている統計的学習のアプローチの結果である、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-30T14:37:50Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Why is plausibility surprisingly problematic as an XAI criterion? [38.0428570713717]
可視性は通常、特徴ローカライゼーションまたは特徴相関のメトリクスによって定量化される。
本研究は, 説明可能性の測定には妥当性が認められず, 人的説明がXAIの基礎的真理ではないことを示す。
測定の無効性と非倫理的な問題から,XAIアルゴリズムの評価と最適化の基準として,コミュニティは可視性の使用をやめるべきである,と論じる。
論文 参考訳(メタデータ) (2023-03-30T20:59:44Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Explainable AI and Adoption of Algorithmic Advisors: an Experimental
Study [0.6875312133832077]
参加者は,人間あるいはアルゴリズムのアドバイザリからアドバイスを受けながら,webベースのゲームをプレイする実験手法を開発した。
異なる種類の説明が採用準備、支払い意欲、および金融AIコンサルタントの信頼に影響を与えるかどうかを評価します。
初対面時の導入を促進する説明の種類は,失敗後の最も成功したものや,コストのかかるものとは異なることが分かりました。
論文 参考訳(メタデータ) (2021-01-05T09:34:38Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。