論文の概要: Human-AI Collaboration: The Effect of AI Delegation on Human Task
Performance and Task Satisfaction
- arxiv url: http://arxiv.org/abs/2303.09224v1
- Date: Thu, 16 Mar 2023 11:02:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 16:00:14.236552
- Title: Human-AI Collaboration: The Effect of AI Delegation on Human Task
Performance and Task Satisfaction
- Title(参考訳): ヒューマンAIコラボレーション:AIデリゲーションがヒューマンタスクパフォーマンスとタスク満足度に及ぼす影響
- Authors: Patrick Hemmer, Monika Westphal, Max Schemmer, Sebastian Vetter,
Michael V\"ossing, Gerhard Satzger
- Abstract要約: タスク性能とタスク満足度はAIデリゲートによって向上することを示す。
我々は、これらの改善の基盤となるメカニズムとして、人間による自己効力の増大を見いだした。
我々の発見は、AIモデルがより多くの管理責任を引き継ぐことが、人間とAIのコラボレーションの効果的な形態であることを示す最初の証拠を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent work has proposed artificial intelligence (AI) models that can learn
to decide whether to make a prediction for an instance of a task or to delegate
it to a human by considering both parties' capabilities. In simulations with
synthetically generated or context-independent human predictions, delegation
can help improve the performance of human-AI teams -- compared to humans or the
AI model completing the task alone. However, so far, it remains unclear how
humans perform and how they perceive the task when they are aware that an AI
model delegated task instances to them. In an experimental study with 196
participants, we show that task performance and task satisfaction improve
through AI delegation, regardless of whether humans are aware of the
delegation. Additionally, we identify humans' increased levels of self-efficacy
as the underlying mechanism for these improvements in performance and
satisfaction. Our findings provide initial evidence that allowing AI models to
take over more management responsibilities can be an effective form of human-AI
collaboration in workplaces.
- Abstract(参考訳): 最近の研究は、人工知能(AI)モデルを提案しており、これは、タスクのインスタンスの予測を行うか、または、双方の能力を考慮してそれを人間に委譲するかを決定することができる。
人工的に生成されたり、文脈に依存しない人間の予測を用いたシミュレーションでは、デリゲートは人間やAIモデルと比較して、人間とAIチームのパフォーマンスを改善するのに役立つ。
しかし、これまでのところ、AIモデルがタスクインスタンスを委譲していることに気付いたとき、人間がどのように機能し、どのようにタスクを知覚するかははっきりしていない。
196名の参加者による実験研究で、人間は代表者を意識しているかに関わらず、タスクのパフォーマンスとタスク満足度がaiデリゲーションによって向上することを示した。
さらに、パフォーマンスと満足度の向上の根底にあるメカニズムとして、人間の自己効力レベルの増加を見出した。
我々の発見は、AIモデルをより多くの管理責任を引き継ぐことが、職場における人間とAIのコラボレーションの効果的な形態であることを示す最初の証拠を提供する。
関連論文リスト
- On the Emergence of Symmetrical Reality [51.21203247240322]
物理仮想アマルガメーションの様々な形態を包含した統一表現を提供する対称現実感フレームワークを導入する。
我々は、対称現実の潜在的な応用を示すAI駆動型アクティブアシストサービスの例を提案する。
論文 参考訳(メタデータ) (2024-01-26T16:09:39Z) - On the Effect of Contextual Information on Human Delegation Behavior in
Human-AI collaboration [3.9253315480927964]
我々は、AIにインスタンスを委譲するために、人間の意思決定に文脈情報を提供することの効果について検討する。
参加者にコンテキスト情報を提供することで,人間-AIチームのパフォーマンスが大幅に向上することがわかった。
本研究は,人間代表団における人間とAIの相互作用の理解を深め,より効果的な協調システムを設計するための実用的な洞察を提供する。
論文 参考訳(メタデータ) (2024-01-09T18:59:47Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice [3.595471754135419]
参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
論文 参考訳(メタデータ) (2023-10-03T14:51:53Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [7.29807482760841]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Human-AI Collaboration via Conditional Delegation: A Case Study of
Content Moderation [47.102566259034326]
我々は,人間-AI協調のための代替パラダイムとして条件付きデリゲートを提案する。
我々は、条件付きデリゲートルールの作成において、人間を支援する新しいインタフェースを開発する。
本研究は,モデル性能向上における条件付きデリゲートの実現可能性を示す。
論文 参考訳(メタデータ) (2022-04-25T17:00:02Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。