論文の概要: Modeling Human-AI Team Decision Making
- arxiv url: http://arxiv.org/abs/2201.02759v1
- Date: Sat, 8 Jan 2022 04:23:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 16:48:27.497109
- Title: Modeling Human-AI Team Decision Making
- Title(参考訳): 人間-AIチーム決定のモデル化
- Authors: Wei Ye, Francesco Bullo, Noah Friedkin, Ambuj K Singh
- Abstract要約: 我々は、不完全なAIエージェントが支援する一連の人間のグループに、知的な問題を提示する。
あるグループの目標は、グループのメンバーとその利用可能なAIエージェントの相対的な専門知識を評価することだった。
本研究では,人間-AIグループの行動予測における,予測理論,影響力学,ベイズ学習の社会的認知的構成要素の価値を示す。
- 参考スコア(独自算出の注目度): 14.368767225297585
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI and humans bring complementary skills to group deliberations. Modeling
this group decision making is especially challenging when the deliberations
include an element of risk and an exploration-exploitation process of
appraising the capabilities of the human and AI agents. To investigate this
question, we presented a sequence of intellective issues to a set of human
groups aided by imperfect AI agents. A group's goal was to appraise the
relative expertise of the group's members and its available AI agents, evaluate
the risks associated with different actions, and maximize the overall reward by
reaching consensus. We propose and empirically validate models of human-AI team
decision making under such uncertain circumstances, and show the value of
socio-cognitive constructs of prospect theory, influence dynamics, and Bayesian
learning in predicting the behavior of human-AI groups.
- Abstract(参考訳): AIと人間は、グループの審議に補完的なスキルをもたらす。
このグループ意思決定のモデリングは、人間とaiエージェントの能力を評価するためのリスク要素と探索探索プロセスを含む場合、特に難しい。
そこで本研究では,不完全なaiエージェントが支援する集団に対して,一連の認知的課題を提示する。
グループの目的は、グループメンバーとその利用可能なAIエージェントの相対的な専門知識を評価し、異なるアクションに関連するリスクを評価し、合意に達することで全体的な報酬を最大化することである。
このような不確実な状況下での人間-AIチーム決定のモデルの提案と実証的検証を行い、人-AIグループの行動予測における確率論、影響力学、ベイズ学習の社会的認知的構成要素の価値を示す。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - ADESSE: Advice Explanations in Complex Repeated Decision-Making Environments [14.105935964906976]
この研究は、インテリジェントなエージェントが人間の意思決定者にアドバイスを提供するような問題設定について考察する。
我々は,人的信頼と意思決定を改善するためのアドバイザーエージェントの説明を生成するために,ADESSEというアプローチを開発した。
論文 参考訳(メタデータ) (2024-05-31T08:59:20Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice [3.595471754135419]
参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
論文 参考訳(メタデータ) (2023-10-03T14:51:53Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。