論文の概要: Do People Engage Cognitively with AI? Impact of AI Assistance on
Incidental Learning
- arxiv url: http://arxiv.org/abs/2202.05402v1
- Date: Fri, 11 Feb 2022 01:28:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 14:42:59.622629
- Title: Do People Engage Cognitively with AI? Impact of AI Assistance on
Incidental Learning
- Title(参考訳): 人々はAIを認知的に取り込むか?
インシデント学習におけるAI支援の効果
- Authors: Krzysztof Z. Gajos and Lena Mamykina
- Abstract要約: 難しい意思決定をしながらアドバイスを受けるとき、彼らはしばしば、その時点でより良い意思決定を行い、プロセスにおける知識を増加させます。
人々がAIから受け取った情報やアドバイスをどのように処理し、学習を可能にするのに十分な情報を深く取り込むのか?
この研究は、AI生成レコメンデーションとともに説明を含めるだけでは十分でないという、これまでで最も直接的な証拠をいくつか提示する。
- 参考スコア(独自算出の注目度): 19.324012098032515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When people receive advice while making difficult decisions, they often make
better decisions in the moment and also increase their knowledge in the
process. However, such incidental learning can only occur when people
cognitively engage with the information they receive and process this
information thoughtfully. How do people process the information and advice they
receive from AI, and do they engage with it deeply enough to enable learning?
To answer these questions, we conducted three experiments in which individuals
were asked to make nutritional decisions and received simulated AI
recommendations and explanations. In the first experiment, we found that when
people were presented with both a recommendation and an explanation before
making their choice, they made better decisions than they did when they
received no such help, but they did not learn. In the second experiment,
participants first made their own choice, and only then saw a recommendation
and an explanation from AI; this condition also resulted in improved decisions,
but no learning. However, in our third experiment, participants were presented
with just an AI explanation but no recommendation and had to arrive at their
own decision. This condition led to both more accurate decisions and learning
gains. We hypothesize that learning gains in this condition were due to deeper
engagement with explanations needed to arrive at the decisions. This work
provides some of the most direct evidence to date that it may not be sufficient
to include explanations together with AI-generated recommendation to ensure
that people engage carefully with the AI-provided information. This work also
presents one technique that enables incidental learning and, by implication,
can help people process AI recommendations and explanations more carefully.
- Abstract(参考訳): 難しい決断をしながらアドバイスを受けるとき、彼らはすぐにより良い決定を下し、プロセスに関する知識も増やします。
しかし、このような偶発的学習は、人々が受信した情報に認知的に関与し、この情報を熟慮して処理する場合にのみ起こりうる。
人々がAIから受け取った情報やアドバイスをどのように処理し、学習を可能にするのに十分な情報を深く取り込むのか?
これらの質問に答えるために, 個人に栄養決定を依頼し, シミュレーションaiによる推薦と説明を受けた3つの実験を行った。
最初の実験では、人々が選択する前にレコメンデーションと説明の両方を提示されたとき、そのような助けが得られなかったときよりも良い判断を下すことが分かりましたが、学ばなかったのです。
第2の実験では、参加者はまず自分で選択し、次にAIからの推薦と説明を見た。
しかし、第3の実験では、参加者はAIの説明だけで、推奨はせず、独自の決定を下さなければならなかった。
この状態は、より正確な決定と学習の利益につながった。
この条件における学習の成果は、決定にたどり着くために必要な説明とより深い関与によるものだと仮定した。
この研究は、これまでで最も直接的な証拠のいくつかを提供しており、AIが提供した情報に人々が注意深く関与するように、AIが生成したレコメンデーションと共に説明を含めるだけでは十分ではないかもしれない。
この研究は、インシデント学習を可能にする1つのテクニックを示し、その意味によって、AIレコメンデーションや説明をより慎重に処理するのに役立つ。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - The Role of Heuristics and Biases During Complex Choices with an AI
Teammate [0.0]
古典的な実験手法は、AIヘルパーによる複雑な選択を研究するには不十分である、と我々は主張する。
我々は、フレーミングとアンカー効果が、人々がAIヘルパーと一緒に働く方法に影響を与え、選択結果を予測することを示した。
論文 参考訳(メタデータ) (2023-01-14T20:06:43Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - To Trust or to Think: Cognitive Forcing Functions Can Reduce
Overreliance on AI in AI-assisted Decision-making [4.877174544937129]
AIによる意思決定支援ツールによってサポートされる人々は、しばしばAIに過度に依存します。
AIの決定に説明を加えることは、過度な信頼を減らすものではありません。
我々の研究は、人間の認知モチベーションが説明可能なAIソリューションの有効性を損なうことを示唆している。
論文 参考訳(メタデータ) (2021-02-19T00:38:53Z) - Explainable AI and Adoption of Algorithmic Advisors: an Experimental
Study [0.6875312133832077]
参加者は,人間あるいはアルゴリズムのアドバイザリからアドバイスを受けながら,webベースのゲームをプレイする実験手法を開発した。
異なる種類の説明が採用準備、支払い意欲、および金融AIコンサルタントの信頼に影響を与えるかどうかを評価します。
初対面時の導入を促進する説明の種類は,失敗後の最も成功したものや,コストのかかるものとは異なることが分かりました。
論文 参考訳(メタデータ) (2021-01-05T09:34:38Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。