論文の概要: Explainable AI and Adoption of Algorithmic Advisors: an Experimental
Study
- arxiv url: http://arxiv.org/abs/2101.02555v1
- Date: Tue, 5 Jan 2021 09:34:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 19:24:42.072818
- Title: Explainable AI and Adoption of Algorithmic Advisors: an Experimental
Study
- Title(参考訳): 説明可能なAIとアルゴリズムアドバイザの採用:実験的検討
- Authors: Daniel Ben David, Yehezkel S. Resheff, Talia Tron
- Abstract要約: 参加者は,人間あるいはアルゴリズムのアドバイザリからアドバイスを受けながら,webベースのゲームをプレイする実験手法を開発した。
異なる種類の説明が採用準備、支払い意欲、および金融AIコンサルタントの信頼に影響を与えるかどうかを評価します。
初対面時の導入を促進する説明の種類は,失敗後の最も成功したものや,コストのかかるものとは異なることが分かりました。
- 参考スコア(独自算出の注目度): 0.6875312133832077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning is becoming a commonplace part of our technological
experience. The notion of explainable AI (XAI) is attractive when regulatory or
usability considerations necessitate the ability to back decisions with a
coherent explanation. A large body of research has addressed algorithmic
methods of XAI, but it is still unclear how to determine what is best suited to
create human cooperation and adoption of automatic systems. Here we develop an
experimental methodology where participants play a web-based game, during which
they receive advice from either a human or algorithmic advisor, accompanied
with explanations that vary in nature between experimental conditions. We use a
reference-dependent decision-making framework, evaluate the game results over
time, and in various key situations, to determine whether the different types
of explanations affect the readiness to adopt, willingness to pay and trust a
financial AI consultant. We find that the types of explanations that promotes
adoption during first encounter differ from those that are most successful
following failure or when cost is involved. Furthermore, participants are
willing to pay more for AI-advice that includes explanations. These results add
to the literature on the importance of XAI for algorithmic adoption and trust.
- Abstract(参考訳): 機械学習は、技術経験の共通部分になりつつある。
規制やユーザビリティを考慮した場合、説明可能なAI(XAI)の概念は、一貫性のある説明で意思決定を支援する能力を必要とする場合に魅力的である。
多くの研究機関がXAIのアルゴリズム的手法に取り組んできたが、人間の協力と自動システムの導入に最適な方法を決定する方法はまだ分かっていない。
本稿では,参加者が web ベースのゲームをプレイする実験手法を開発し,その中に人間あるいはアルゴリズムのアドバイザリからアドバイスを受け,実験条件によって異なる説明文を提示する。
我々は、基準に依存した意思決定フレームワークを使用して、時間とともにゲーム結果を評価し、様々な重要な状況において、異なるタイプの説明が採用する準備、支払いの意思、金融AIコンサルタントの信頼に影響を及ぼすかどうかを判断する。
初対面時の導入を促進する説明の種類は,失敗後,あるいはコストが掛かる場合に最も成功したものとは異なることがわかった。
さらに参加者は、説明を含むAIアドバイザの料金を喜んで支払う。
これらの結果は、アルゴリズムの採用と信頼のためのXAIの重要性に関する文献に重きを置いている。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Explainable Artificial Intelligence Approaches: A Survey [0.22940141855172028]
人工知能ベースの「ブラックボックス」システム/モデルからの決定の説明力の欠如は、ハイステークアプリケーションでAIを採用するための重要な障害です。
相互ケーススタディ/タスクにより、一般的なXAI(Explainable Artificial Intelligence)手法を実証します。
競争優位性を多角的に分析します。
我々はXAIを媒体として、責任や人間中心のAIへの道を推奨する。
論文 参考訳(メタデータ) (2021-01-23T06:15:34Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。