論文の概要: Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice
- arxiv url: http://arxiv.org/abs/2310.02108v1
- Date: Tue, 3 Oct 2023 14:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 13:49:45.375232
- Title: Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice
- Title(参考訳): 効果的なAI意思決定に向けて:AIアドバイスの適切な信頼性におけるヒューマンラーニングの役割
- Authors: Max Schemmer, Andrea Bartos, Philipp Spitzer, Patrick Hemmer, Niklas
K\"uhl, Jonas Liebschner, Gerhard Satzger
- Abstract要約: 参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
- 参考スコア(独自算出の注目度): 3.595471754135419
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The true potential of human-AI collaboration lies in exploiting the
complementary capabilities of humans and AI to achieve a joint performance
superior to that of the individual AI or human, i.e., to achieve complementary
team performance (CTP). To realize this complementarity potential, humans need
to exercise discretion in following AI 's advice, i.e., appropriately relying
on the AI's advice. While previous work has focused on building a mental model
of the AI to assess AI recommendations, recent research has shown that the
mental model alone cannot explain appropriate reliance. We hypothesize that, in
addition to the mental model, human learning is a key mediator of appropriate
reliance and, thus, CTP. In this study, we demonstrate the relationship between
learning and appropriate reliance in an experiment with 100 participants. This
work provides fundamental concepts for analyzing reliance and derives
implications for the effective design of human-AI decision-making.
- Abstract(参考訳): 人間とAIの協力の真の可能性は、人間とAIの相補的な能力を利用して、個々のAIや人間の相補的なチームパフォーマンス(CTP)よりも優れた共同パフォーマンスを達成することである。
この相補的な可能性を実現するためには、AIのアドバイス、すなわちAIのアドバイスに適切に依存する場合、人間は裁量を行う必要がある。
これまでの研究は、AIレコメンデーションを評価するためのAIのメンタルモデルの構築に重点を置いていたが、最近の研究では、メンタルモデルだけでは適切な依存を説明できないことが示されている。
我々は、メンタルモデルに加えて、人間の学習が適切な信頼の鍵となる媒介者であり、したがってCTPを仮定する。
本研究では,100名を対象にした実験において,学習と適切な信頼との関係を示す。
本研究は、人間-ai意思決定の効果的な設計に意味を持つ、信頼度分析のための基本的な概念を提供する。
関連論文リスト
- Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - On the Effect of Contextual Information on Human Delegation Behavior in
Human-AI collaboration [3.9253315480927964]
我々は、AIにインスタンスを委譲するために、人間の意思決定に文脈情報を提供することの効果について検討する。
参加者にコンテキスト情報を提供することで,人間-AIチームのパフォーマンスが大幅に向上することがわかった。
本研究は,人間代表団における人間とAIの相互作用の理解を深め,より効果的な協調システムを設計するための実用的な洞察を提供する。
論文 参考訳(メタデータ) (2024-01-09T18:59:47Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [7.29807482760841]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Applying HCAI in developing effective human-AI teaming: A perspective
from human-AI joint cognitive systems [10.746728034149989]
研究と応用は、AIシステムを開発するための新しいパラダイムとして、HAT(Human-AI Teaming)を使用している。
我々は,人間とAIの協調認知システム(HAIJCS)の概念的枠組みについて詳しく検討する。
本稿では,HATを表現・実装するためのヒューマンAI共同認知システム(HAIJCS)の概念的枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-08T06:26:38Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - On the Effect of Information Asymmetry in Human-AI Teams [0.0]
我々は、人間とAIの相補的ポテンシャルの存在に焦点を当てる。
具体的には、情報非対称性を相補性ポテンシャルの必須源とみなす。
オンライン実験を行うことで、人間がそのような文脈情報を使ってAIの決定を調整できることを実証する。
論文 参考訳(メタデータ) (2022-05-03T13:02:50Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。