論文の概要: Exploring Effectiveness of Explanations for Appropriate Trust: Lessons
from Cognitive Psychology
- arxiv url: http://arxiv.org/abs/2210.03737v1
- Date: Wed, 5 Oct 2022 13:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 16:01:47.776175
- Title: Exploring Effectiveness of Explanations for Appropriate Trust: Lessons
from Cognitive Psychology
- Title(参考訳): 適切な信頼のための説明の有効性を探る:認知心理学からの教訓
- Authors: Ruben S. Verhagen, Siddharth Mehrotra, Mark A. Neerincx, Catholijn M.
Jonker and Myrthe L. Tielman
- Abstract要約: この研究は、認知心理学における発見からインスピレーションを得て、いかに効果的な説明を設計できるかを理解する。
我々は、デザイナーが特別な注意を払うことができる4つのコンポーネント、知覚、意味論、意図、ユーザとコンテキストを識別する。
本稿では,解釈可能な説明を生成できないアルゴリズムと説明コミュニケーションを併用した説明生成の新たなステップとして,効果的なAI説明のための重要な課題を提案する。
- 参考スコア(独自算出の注目度): 3.1945067016153423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid development of Artificial Intelligence (AI) requires developers and
designers of AI systems to focus on the collaboration between humans and
machines. AI explanations of system behavior and reasoning are vital for
effective collaboration by fostering appropriate trust, ensuring understanding,
and addressing issues of fairness and bias. However, various contextual and
subjective factors can influence an AI system explanation's effectiveness. This
work draws inspiration from findings in cognitive psychology to understand how
effective explanations can be designed. We identify four components to which
explanation designers can pay special attention: perception, semantics, intent,
and user & context. We illustrate the use of these four explanation components
with an example of estimating food calories by combining text with visuals,
probabilities with exemplars, and intent communication with both user and
context in mind. We propose that the significant challenge for effective AI
explanations is an additional step between explanation generation using
algorithms not producing interpretable explanations and explanation
communication. We believe this extra step will benefit from carefully
considering the four explanation components outlined in our work, which can
positively affect the explanation's effectiveness.
- Abstract(参考訳): 人工知能(AI)の急速な発展には、開発者とデザイナが人間と機械のコラボレーションに集中する必要がある。
aiによるシステムの振る舞いと推論の説明は、適切な信頼の促進、理解の確保、公平さとバイアスの問題への対処によって、効果的なコラボレーションに不可欠である。
しかし、様々な文脈的・主観的要因がAIシステムの説明の有効性に影響を与える可能性がある。
この研究は認知心理学の知見から着想を得て、効果的な説明がどのように設計できるかを理解する。
我々は、説明デザイナーが特に注意を払うことができる4つの要素、すなわち知覚、意味論、意図、ユーザとコンテキストを特定する。
本稿では,これら4つの説明成分を,テキストと視覚との組み合わせによる食品カロリーの推定,例示による確率,ユーザとコンテキストを念頭に置いた意図コミュニケーションなどを用いて示す。
効果的なai説明のための重要な課題は、解釈可能な説明と説明コミュニケーションを生成できないアルゴリズムを用いた説明生成との間にある追加のステップである。
この追加ステップは,本研究で概説されている4つの説明要素を慎重に検討することで,説明の有効性に肯定的な影響を与えることができると考えています。
関連論文リスト
- An Ontology-Enabled Approach For User-Centered and Knowledge-Enabled Explanations of AI Systems [0.3480973072524161]
説明可能性に関する最近の研究は、AIモデルやモデル説明可能性の動作を説明することに重点を置いている。
この論文は、モデルとユーザ中心の説明可能性の間のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-10-23T02:03:49Z) - May I Ask a Follow-up Question? Understanding the Benefits of Conversations in Neural Network Explainability [17.052366688978935]
自由形式の会話が静的な説明の理解を深めるかどうかを検討する。
参加者が3つの機械学習モデルから選択できる能力に会話が与える影響を計測する。
本研究は,自由形式の会話形式におけるモデル説明のカスタマイズの重要性を強調した。
論文 参考訳(メタデータ) (2023-09-25T09:00:38Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Cognitive Perspectives on Context-based Decisions and Explanations [0.0]
本稿では,xaiの文脈的重要性と有用性が,現在の新たな行動指向予測表現構造の波と重なり合うことを示す。
これは説明可能なAIに影響を及ぼし、人間の聴衆にコンピュータの意思決定の説明を提供することが目的です。
論文 参考訳(メタデータ) (2021-01-25T15:49:52Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。