論文の概要: Decoding AI's Nudge: A Unified Framework to Predict Human Behavior in
AI-assisted Decision Making
- arxiv url: http://arxiv.org/abs/2401.05840v1
- Date: Thu, 11 Jan 2024 11:22:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 15:01:04.989408
- Title: Decoding AI's Nudge: A Unified Framework to Predict Human Behavior in
AI-assisted Decision Making
- Title(参考訳): AIのナッジをデコードする:AIによる意思決定における人間の振る舞いを予測する統一フレームワーク
- Authors: Zhuoyan Li, Zhuoran Lu, Ming Yin
- Abstract要約: 本稿では,AI支援の様々な形態が意思決定者に与える影響を解釈できる計算フレームワークを提案する。
人間の意思決定プロセスにおけるAIアシストを「エマード」として概念化することで、私たちのアプローチは、異なる形のAIアシストが人間の戦略をどのように修正するかをモデル化することに集中します。
- 参考スコア(独自算出の注目度): 24.258056813524167
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: With the rapid development of AI-based decision aids, different forms of AI
assistance have been increasingly integrated into the human decision making
processes. To best support humans in decision making, it is essential to
quantitatively understand how diverse forms of AI assistance influence humans'
decision making behavior. To this end, much of the current research focuses on
the end-to-end prediction of human behavior using ``black-box'' models, often
lacking interpretations of the nuanced ways in which AI assistance impacts the
human decision making process. Meanwhile, methods that prioritize the
interpretability of human behavior predictions are often tailored for one
specific form of AI assistance, making adaptations to other forms of assistance
difficult. In this paper, we propose a computational framework that can provide
an interpretable characterization of the influence of different forms of AI
assistance on decision makers in AI-assisted decision making. By
conceptualizing AI assistance as the ``{\em nudge}'' in human decision making
processes, our approach centers around modelling how different forms of AI
assistance modify humans' strategy in weighing different information in making
their decisions. Evaluations on behavior data collected from real human
decision makers show that the proposed framework outperforms various baselines
in accurately predicting human behavior in AI-assisted decision making. Based
on the proposed framework, we further provide insights into how individuals
with different cognitive styles are nudged by AI assistance differently.
- Abstract(参考訳): AIベースの意思決定支援の急速な発展に伴い、AI支援のさまざまな形態が、人間の意思決定プロセスに統合されつつある。
意思決定において人間を最善に支援するためには、多種多様なAI支援が人間の意思決定行動にどのように影響するかを定量的に理解することが不可欠である。
この目的のために、現在の研究の多くは『ブラックボックス』モデルを用いた人間の行動のエンドツーエンド予測に焦点を当てており、AI支援が人間の意思決定プロセスに影響を及ぼす微妙な方法の解釈を欠いていることが多い。
一方、人間の行動予測の解釈性を優先する手法は、ある特定の形態のai支援のために調整されることが多く、他の形態の援助への適応が困難になる。
本稿では,AI支援意思決定における意思決定者に対するAI支援のさまざまな形態の影響を解釈可能な評価を行うための計算フレームワークを提案する。
人間の意思決定プロセスにおいて、AIアシストを ‘{\em nudge}’ として概念化することで、私たちのアプローチは、異なる形のAIアシストが人間の戦略をどのように修正するかをモデル化することに集中します。
実際の人間の意思決定者から収集された行動データの評価は、AIによる意思決定における人間の行動の正確な予測において、提案されたフレームワークが様々なベースラインを上回っていることを示している。
提案した枠組みに基づいて、異なる認知スタイルの個人がAI支援によって異なる方法で評価される方法について、さらに洞察を提供する。
関連論文リスト
- Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Designing AI Support for Human Involvement in AI-assisted Decision
Making: A Taxonomy of Human-AI Interactions from a Systematic Review [6.013543974938446]
我々は、人間とAIの相互作用の様々なモードを規定する相互作用パターンの分類法を導入する。
現在のインタラクションは、単純化されたコラボレーションパラダイムによって支配され、真にインタラクティブな機能に対する比較的少ないサポートを報告します。
論文 参考訳(メタデータ) (2023-10-30T17:46:38Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [7.29807482760841]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。