論文の概要: Appropriate Reliance on AI Advice: Conceptualization and the Effect of
Explanations
- arxiv url: http://arxiv.org/abs/2302.02187v2
- Date: Tue, 7 Feb 2023 07:47:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 12:25:35.278943
- Title: Appropriate Reliance on AI Advice: Conceptualization and the Effect of
Explanations
- Title(参考訳): AIアドバイスに対する適切な信頼:概念化と説明の効果
- Authors: Max Schemmer, Niklas K\"uhl, Carina Benz, Andrea Bartos, Gerhard
Satzger
- Abstract要約: 我々は、AIアドバイスの説明を提供することの効果を分析する研究モデルを開発する。
200人の参加者による実験で、これらの説明が適切な信頼度(AoR)にどのように影響するかを実証した。
我々の研究は、依存行動の分析とAIアドバイザの目的設計のための基本的な概念に貢献する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI advice is becoming increasingly popular, e.g., in investment and medical
treatment decisions. As this advice is typically imperfect, decision-makers
have to exert discretion as to whether actually follow that advice: they have
to "appropriately" rely on correct and turn down incorrect advice. However,
current research on appropriate reliance still lacks a common definition as
well as an operational measurement concept. Additionally, no in-depth
behavioral experiments have been conducted that help understand the factors
influencing this behavior. In this paper, we propose Appropriateness of
Reliance (AoR) as an underlying, quantifiable two-dimensional measurement
concept. We develop a research model that analyzes the effect of providing
explanations for AI advice. In an experiment with 200 participants, we
demonstrate how these explanations influence the AoR, and, thus, the
effectiveness of AI advice. Our work contributes fundamental concepts for the
analysis of reliance behavior and the purposeful design of AI advisors.
- Abstract(参考訳): AIアドバイスは、例えば投資や治療決定において、ますます人気が高まっている。
このアドバイスは一般的に不完全であるため、意思決定者は、実際にそのアドバイスに従うかどうかを判断しなければならない。
しかし、現在の適切な信頼に関する研究には、まだ共通の定義と運用上の測定概念が欠けている。
さらに、この行動に影響を及ぼす要因を理解するのに役立つ深い行動実験は行われていない。
本稿では,AoR(Adropriateness of Reliance)を基礎となる,定量的な2次元計測概念として提案する。
我々は、aiアドバイスに説明を提供する効果を分析する研究モデルを開発した。
200人の参加者による実験では、これらの説明がAoRにどのように影響し、AIアドバイスの有効性を示す。
我々の研究は、依存行動の分析とAIアドバイザの目的設計のための基本的な概念に貢献する。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Right, No Matter Why: AI Fact-checking and AI Authority in
Health-related Inquiry Settings [6.479999334029941]
健康関連文の真偽を評価する際に,ユーザのAI対応行動の評価を行う。
AIはステートメントが偽/真であると信じている”というだけに制限されたフィードバックでさえ、半数以上の人がステートメントアセスメントをAIの提案に移行していることがわかったのです。
論文 参考訳(メタデータ) (2023-10-22T16:59:31Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - Should I Follow AI-based Advice? Measuring Appropriate Reliance in
Human-AI Decision-Making [0.0]
私たちは、人間がAIアドバイスを盲目的に頼らず、その品質を区別し、より良い意思決定を行うために行動できるようにすることを目標としています。
現在の研究では、ケースバイケースベースでAIアドバイスに対する適切な信頼(AR)の基準が欠如している。
我々は、ARをアドバイス品質を識別し、それに応じて振る舞う能力を測定する2次元構成体として見ることを提案する。
論文 参考訳(メタデータ) (2022-04-14T12:18:51Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable AI and Adoption of Algorithmic Advisors: an Experimental
Study [0.6875312133832077]
参加者は,人間あるいはアルゴリズムのアドバイザリからアドバイスを受けながら,webベースのゲームをプレイする実験手法を開発した。
異なる種類の説明が採用準備、支払い意欲、および金融AIコンサルタントの信頼に影響を与えるかどうかを評価します。
初対面時の導入を促進する説明の種類は,失敗後の最も成功したものや,コストのかかるものとは異なることが分かりました。
論文 参考訳(メタデータ) (2021-01-05T09:34:38Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。