論文の概要: Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems
- arxiv url: http://arxiv.org/abs/2301.11333v1
- Date: Wed, 25 Jan 2023 14:26:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 17:45:28.551903
- Title: Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems
- Title(参考訳): 知っていること:AIシステムへの適切な信頼を阻害する人間の能力の不足
- Authors: Gaole He, Lucie Kuiper, Ujwal Gadiraju
- Abstract要約: 本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
- 参考スコア(独自算出の注目度): 13.484359389266864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dazzling promises of AI systems to augment humans in various tasks hinge
on whether humans can appropriately rely on them. Recent research has shown
that appropriate reliance is the key to achieving complementary team
performance in AI-assisted decision making. This paper addresses an
under-explored problem of whether the Dunning-Kruger Effect (DKE) among people
can hinder their appropriate reliance on AI systems. DKE is a metacognitive
bias due to which less-competent individuals overestimate their own skill and
performance. Through an empirical study (N = 249), we explored the impact of
DKE on human reliance on an AI system, and whether such effects can be
mitigated using a tutorial intervention that reveals the fallibility of AI
advice, and exploiting logic units-based explanations to improve user
understanding of AI advice. We found that participants who overestimate their
performance tend to exhibit under-reliance on AI systems, which hinders optimal
team performance. Logic units-based explanations did not help users in either
improving the calibration of their competence or facilitating appropriate
reliance. While the tutorial intervention was highly effective in helping users
calibrate their self-assessment and facilitating appropriate reliance among
participants with overestimated self-assessment, we found that it can
potentially hurt the appropriate reliance of participants with underestimated
self-assessment. Our work has broad implications on the design of methods to
tackle user cognitive biases while facilitating appropriate reliance on AI
systems. Our findings advance the current understanding of the role of
self-assessment in shaping trust and reliance in human-AI decision making. This
lays out promising future directions for relevant HCI research in this
community.
- Abstract(参考訳): AIシステムは、人間が適切に頼れるかどうかについて、さまざまなタスクにおいて人間を増強する。
近年の研究では、AIによる意思決定で補完的なチームパフォーマンスを達成する上で、適切な信頼が鍵であることが示されている。
本稿では,Dunning-Kruger Effect (DKE) がAIシステムへの適切な依存を妨げるかどうか,未解明の問題に対処する。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
実験的な研究(N = 249)を通じて、AIシステムへの人間依存に対するDKEの影響と、AIアドバイスの誤認を明らかにするチュートリアル介入を用いて、AIアドバイスのユーザ理解を改善するための論理単位に基づく説明を活用することで、そのような効果を緩和できるかどうかを検討した。
その結果、パフォーマンスを過大評価する参加者は、最適なチームパフォーマンスを妨げるAIシステムへの信頼度が低い傾向にあることがわかった。
論理単位に基づく説明は、ユーザーが能力の校正を改善したり、適切な依存を促進するのに役立つものではなかった。
この介入は,過度な自己評価を行う参加者の自己評価を校正し,適切な信頼を促すのに有効であるが,過度な自己評価を行う参加者の適切な信頼を損なう可能性が示唆された。
本研究は,aiシステムへの適切な依存を促進しつつ,ユーザの認知バイアスに対処する手法の設計に広く影響している。
人間のAI意思決定における信頼と信頼の形成における自己評価の役割の理解を深めた。
これは、このコミュニティにおける関連するHCI研究の今後の方向性を示すものである。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - To Err Is AI! Debugging as an Intervention to Facilitate Appropriate Reliance on AI Systems [11.690126756498223]
最適な人間とAIのコラボレーションのためのビジョンは、人間のAIシステムへの「適切な依存」を必要とする。
実際には、アウト・オブ・ディストリビューションデータにおける機械学習モデルの性能格差は、データセット固有のパフォーマンスフィードバックを信頼できないものにしている。
論文 参考訳(メタデータ) (2024-09-22T09:43:27Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - Improving Human-AI Collaboration With Descriptions of AI Behavior [14.904401331154062]
人々はAIシステムを使って意思決定を改善するが、しばしばAIの予測を過度に、あるいは過度に予測し、手伝わなかったよりも悪いパフォーマンスをする。
人々がAIアシスタントを適切に頼りにするために、行動記述を示すことを提案する。
論文 参考訳(メタデータ) (2023-01-06T00:33:08Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Advancing Human-AI Complementarity: The Impact of User Expertise and
Algorithmic Tuning on Joint Decision Making [10.890854857970488]
ユーザのドメイン知識、AIシステムのメンタルモデル、レコメンデーションへの信頼など、多くの要因がヒューマンAIチームの成功に影響を与える可能性がある。
本研究は,非自明な血管ラベル作成作業において,血管が流れているか停止しているかを被験者に示すことを目的とした。
以上の結果から,AI-Assistantからの推薦はユーザの意思決定に役立つが,AIに対するユーザベースラインのパフォーマンスや,AIエラー型の相補的チューニングといった要因は,チーム全体のパフォーマンスに大きな影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-08-16T21:39:58Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - To Trust or to Think: Cognitive Forcing Functions Can Reduce
Overreliance on AI in AI-assisted Decision-making [4.877174544937129]
AIによる意思決定支援ツールによってサポートされる人々は、しばしばAIに過度に依存します。
AIの決定に説明を加えることは、過度な信頼を減らすものではありません。
我々の研究は、人間の認知モチベーションが説明可能なAIソリューションの有効性を損なうことを示唆している。
論文 参考訳(メタデータ) (2021-02-19T00:38:53Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。