論文の概要: Explainable AI is Dead, Long Live Explainable AI! Hypothesis-driven
decision support
- arxiv url: http://arxiv.org/abs/2302.12389v1
- Date: Fri, 24 Feb 2023 01:33:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 15:01:37.937490
- Title: Explainable AI is Dead, Long Live Explainable AI! Hypothesis-driven
decision support
- Title(参考訳): 説明可能なAIは死んだ、長く生きた説明可能なAI!
仮説駆動意思決定支援
- Authors: Tim Miller
- Abstract要約: 我々は、現在の説明可能な人工知能(XAI)モデルからのパラダイムシフトを議論する。
早期意思決定支援システムでは、人々に推奨を与え、それらを考慮し、必要なときにそれに従うことができると仮定した。
- 参考スコア(独自算出の注目度): 4.452019519213712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we argue for a paradigm shift from the current model of
explainable artificial intelligence (XAI), which may be counter-productive to
better human decision making. In early decision support systems, we assumed
that we could give people recommendations and that they would consider them,
and then follow them when required. However, research found that people often
ignore recommendations because they do not trust them; or perhaps even worse,
people follow them blindly, even when the recommendations are wrong.
Explainable artificial intelligence mitigates this by helping people to
understand how and why models give certain recommendations. However, recent
research shows that people do not always engage with explainability tools
enough to help improve decision making. The assumption that people will engage
with recommendations and explanations has proven to be unfounded. We argue this
is because we have failed to account for two things. First, recommendations
(and their explanations) take control from human decision makers, limiting
their agency. Second, giving recommendations and explanations does not align
with the cognitive processes employed by people making decisions. This position
paper proposes a new conceptual framework called Evaluative AI for explainable
decision support. This is a machine-in-the-loop paradigm in which decision
support tools provide evidence for and against decisions made by people, rather
than provide recommendations to accept or reject. We argue that this mitigates
issues of over- and under-reliance on decision support tools, and better
leverages human expertise in decision making.
- Abstract(参考訳): 本稿では,従来の説明可能な人工知能(XAI)モデルからのパラダイムシフトについて論じる。
早期意思決定支援システムでは、人々に推奨を与え、それらを考慮し、必要なときにそれに従うことができると仮定した。
しかし、研究によると、人々はレコメンデーションを信用していないために無視することが多く、レコメンデーションが間違っていても盲目的にフォローしている。
説明可能な人工知能は、モデルが特定のレコメンデーションを与える方法と理由を理解するのを助けることでこれを緩和する。
しかし、最近の研究では、人々は必ずしも意思決定を改善するのに十分な説明可能性ツールに携わるとは限らない。
人々がレコメンデーションや説明に従事するという仮定は根拠がないことが証明されている。
これは、我々は2つのことを説明できなかったからである。
まず、リコメンデーション(と説明)が人間の意思決定者からコントロールを受け、代理店を制限します。
第二に、レコメンデーションや説明を与えることは、意思決定を行う人々が採用する認知プロセスと一致しない。
本稿では,説明可能な意思決定支援のための評価AIという新しい概念的枠組みを提案する。
これはマシン・イン・ザ・ループのパラダイムであり、決定支援ツールは、受け入れや拒否を推奨するのではなく、人々の決定に対する証拠を提供する。
これは意思決定支援ツールへの過度な信頼と過度な信頼の問題を緩和し、意思決定における人間の専門知識をより活用する、と我々は主張する。
関連論文リスト
- Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Does More Advice Help? The Effects of Second Opinions in AI-Assisted
Decision Making [45.20615051119694]
我々は、AIによる意思決定における意思決定者の行動とパフォーマンスに第2の意見がどう影響するかを考察する。
AIモデルの推奨事項と第2の意見が常に一致している場合、意思決定者はAIに対する過度な信頼を減らすことができる。
もし意思決定者が、いつ仲間の第二の意見を求めるかを決めることができるならば、彼らの第二の意見の活発な勧誘は、AIに対する過度な信頼を緩和する可能性があることに気付く。
論文 参考訳(メタデータ) (2024-01-13T12:19:01Z) - Do People Engage Cognitively with AI? Impact of AI Assistance on
Incidental Learning [19.324012098032515]
難しい意思決定をしながらアドバイスを受けるとき、彼らはしばしば、その時点でより良い意思決定を行い、プロセスにおける知識を増加させます。
人々がAIから受け取った情報やアドバイスをどのように処理し、学習を可能にするのに十分な情報を深く取り込むのか?
この研究は、AI生成レコメンデーションとともに説明を含めるだけでは十分でないという、これまでで最も直接的な証拠をいくつか提示する。
論文 参考訳(メタデータ) (2022-02-11T01:28:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z) - Implications of Human Irrationality for Reinforcement Learning [26.76732313120685]
人間の意思決定は、機械学習の問題がどのように定義されているかを制限するためのアイデアのより良い源であるかもしれない、と私たちは主張する。
ある有望なアイデアは、選択コンテキストの明らかに無関係な側面に依存する人間の意思決定に関するものである。
本研究では,文脈選択タスクのための新しいPOMDPモデルを提案する。
論文 参考訳(メタデータ) (2020-06-07T07:44:53Z) - Evidence-based explanation to promote fairness in AI systems [3.190891983147147]
人は意思決定をし、通常、自分の決定を他の人や何かに説明する必要があります。
意思決定をAIサポートで説明するためには、AIがその決定の一部となっているかを理解する必要がある。
我々は,「意思決定の物語を語る」ためのエビデンスに基づく説明設計アプローチを模索してきた。
論文 参考訳(メタデータ) (2020-03-03T14:22:11Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。