論文の概要: Decoding AI's Nudge: A Unified Framework to Predict Human Behavior in
AI-assisted Decision Making
- arxiv url: http://arxiv.org/abs/2401.05840v1
- Date: Thu, 11 Jan 2024 11:22:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 15:01:04.989408
- Title: Decoding AI's Nudge: A Unified Framework to Predict Human Behavior in
AI-assisted Decision Making
- Title(参考訳): AIのナッジをデコードする:AIによる意思決定における人間の振る舞いを予測する統一フレームワーク
- Authors: Zhuoyan Li, Zhuoran Lu, Ming Yin
- Abstract要約: 本稿では,AI支援の様々な形態が意思決定者に与える影響を解釈できる計算フレームワークを提案する。
人間の意思決定プロセスにおけるAIアシストを「エマード」として概念化することで、私たちのアプローチは、異なる形のAIアシストが人間の戦略をどのように修正するかをモデル化することに集中します。
- 参考スコア(独自算出の注目度): 24.258056813524167
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: With the rapid development of AI-based decision aids, different forms of AI
assistance have been increasingly integrated into the human decision making
processes. To best support humans in decision making, it is essential to
quantitatively understand how diverse forms of AI assistance influence humans'
decision making behavior. To this end, much of the current research focuses on
the end-to-end prediction of human behavior using ``black-box'' models, often
lacking interpretations of the nuanced ways in which AI assistance impacts the
human decision making process. Meanwhile, methods that prioritize the
interpretability of human behavior predictions are often tailored for one
specific form of AI assistance, making adaptations to other forms of assistance
difficult. In this paper, we propose a computational framework that can provide
an interpretable characterization of the influence of different forms of AI
assistance on decision makers in AI-assisted decision making. By
conceptualizing AI assistance as the ``{\em nudge}'' in human decision making
processes, our approach centers around modelling how different forms of AI
assistance modify humans' strategy in weighing different information in making
their decisions. Evaluations on behavior data collected from real human
decision makers show that the proposed framework outperforms various baselines
in accurately predicting human behavior in AI-assisted decision making. Based
on the proposed framework, we further provide insights into how individuals
with different cognitive styles are nudged by AI assistance differently.
- Abstract(参考訳): AIベースの意思決定支援の急速な発展に伴い、AI支援のさまざまな形態が、人間の意思決定プロセスに統合されつつある。
意思決定において人間を最善に支援するためには、多種多様なAI支援が人間の意思決定行動にどのように影響するかを定量的に理解することが不可欠である。
この目的のために、現在の研究の多くは『ブラックボックス』モデルを用いた人間の行動のエンドツーエンド予測に焦点を当てており、AI支援が人間の意思決定プロセスに影響を及ぼす微妙な方法の解釈を欠いていることが多い。
一方、人間の行動予測の解釈性を優先する手法は、ある特定の形態のai支援のために調整されることが多く、他の形態の援助への適応が困難になる。
本稿では,AI支援意思決定における意思決定者に対するAI支援のさまざまな形態の影響を解釈可能な評価を行うための計算フレームワークを提案する。
人間の意思決定プロセスにおいて、AIアシストを ‘{\em nudge}’ として概念化することで、私たちのアプローチは、異なる形のAIアシストが人間の戦略をどのように修正するかをモデル化することに集中します。
実際の人間の意思決定者から収集された行動データの評価は、AIによる意思決定における人間の行動の正確な予測において、提案されたフレームワークが様々なベースラインを上回っていることを示している。
提案した枠組みに基づいて、異なる認知スタイルの個人がAI支援によって異なる方法で評価される方法について、さらに洞察を提供する。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Utilizing Human Behavior Modeling to Manipulate Explanations in AI-Assisted Decision Making: The Good, the Bad, and the Scary [19.884253335528317]
AIモデルの最近の進歩は、人間の意思決定プロセスへのAIベースの意思決定支援の統合を高めている。
AIによる意思決定の可能性を完全に解き放つために、研究者たちは、人間がAIレコメンデーションを最終決定にどのように組み込むかをコンピュータでモデル化した。
より適切にAIレコメンデーションに頼れるように、人間の意思決定者にAIの説明を提供することは、一般的な慣習となっている。
論文 参考訳(メタデータ) (2024-11-02T18:33:28Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。