論文の概要: Experimental Evidence That AI-Managed Workers Tolerate Lower Pay Without Demotivation
- arxiv url: http://arxiv.org/abs/2505.21752v1
- Date: Tue, 27 May 2025 20:40:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.28716
- Title: Experimental Evidence That AI-Managed Workers Tolerate Lower Pay Without Demotivation
- Title(参考訳): AIを駆使した労働者が破壊なしに低賃金を容認する実験的証拠
- Authors: Mengchen Dong, Levin Brinkmann, Omar Sherif, Shihan Wang, Xinyu Zhang, Jean-François Bonnefon, Iyad Rahwan,
- Abstract要約: AI管理に対する労働者の反応に関する実験的証拠は、部分的には実験的忠実性の限界のために、相変わらず混在している。
これらの制限をMinecraftプラットフォームでカスタマイズされた職場で解決し、自律的なタスク実行の高解像度な行動追跡を可能にする。
労働者は人間、AI、ハイブリッド管理の下で繰り返し生産タスクを完了した。
AIマネージャは、労働者のモチベーションや公正感に悪影響を与えることなく、人間の定義した評価原則に基づいて体系的に低いパフォーマンスレーティングと賃金を40%削減した。
- 参考スコア(独自算出の注目度): 7.306174397662034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Experimental evidence on worker responses to AI management remains mixed, partly due to limitations in experimental fidelity. We address these limitations with a customized workplace in the Minecraft platform, enabling high-resolution behavioral tracking of autonomous task execution, and ensuring that participants approach the task with well-formed expectations about their own competence. Workers (N = 382) completed repeated production tasks under either human, AI, or hybrid management. An AI manager trained on human-defined evaluation principles systematically assigned lower performance ratings and reduced wages by 40\%, without adverse effects on worker motivation and sense of fairness. These effects were driven by a muted emotional response to AI evaluation, compared to evaluation by a human. The very features that make AI appear impartial may also facilitate silent exploitation, by suppressing the social reactions that normally constrain extractive practices in human-managed work.
- Abstract(参考訳): AI管理に対する労働者の反応に関する実験的証拠は、部分的には実験的忠実性の限界のために、相変わらず混在している。
これらの制限は、Minecraftプラットフォームでカスタマイズされた職場で対処し、自律的なタスク実行の高解像度な行動追跡を可能にし、参加者が自身の能力に対する良好な期待を持ってタスクにアプローチできるようにします。
労働者(N = 382)は、人間、AI、ハイブリッド管理の下で繰り返し生産タスクを完了した。
AIマネージャは、労働者のモチベーションや公正感に悪影響を与えることなく、人間の定義した評価原則に基づいて体系的に低いパフォーマンスレーティングと賃金を40%削減した。
これらの効果は、人間による評価と比較して、AI評価に対する無作為な感情反応によって引き起こされた。
AIを不公平に見せるような特徴は、人間の管理された仕事において通常抽出の慣行を制約する社会的反応を抑えることによって、静かな搾取を促進する可能性がある。
関連論文リスト
- A Task-Driven Human-AI Collaboration: When to Automate, When to Collaborate, When to Challenge [16.734679201317896]
我々は,人間とAIの適切な統合が,パフォーマンスを向上しつつ,有意義なエージェンシーを維持していることを示す。
このフレームワークは、実用的で道徳的に健全な人間とAIのコラボレーションのためのファインダオプションを配置する。
論文 参考訳(メタデータ) (2025-05-23T23:19:15Z) - On Benchmarking Human-Like Intelligence in Machines [77.55118048492021]
現在のAI評価パラダイムは、人間のような認知能力を評価するには不十分である、と我々は主張する。
人為的なラベルの欠如、人間の反応の多様性と不確実性の表現の不適切な表現、単純で生態学的に無意味なタスクへの依存。
論文 参考訳(メタデータ) (2025-02-27T20:21:36Z) - Human-AI Collaborative Game Testing with Vision Language Models [0.0]
本研究では,AI支援ワークフローの開発と実験により,AIがゲームテストを改善する方法について検討する。
我々は、AIサポートの有無、欠陥や設計資料の詳細な知識の有無の4つの条件下で、AIアシストの有効性を評価する。
その結果、特に詳細な知識と組み合わせた場合、AIアシストは欠陥識別性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-01-20T23:14:23Z) - Employee Well-being in the Age of AI: Perceptions, Concerns, Behaviors, and Outcomes [0.0]
この研究は、AIが従業員の知覚、仕事の満足度、メンタルヘルス、維持をいかに形作るかを調べる。
AIシステムの透明性は、信頼とポジティブな従業員の態度を促進する重要な要因として現れます。
この研究は、AI職の幸福なインタラクションフレームワークを紹介している。
論文 参考訳(メタデータ) (2024-12-06T06:07:44Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Human-AI Collaboration: The Effect of AI Delegation on Human Task
Performance and Task Satisfaction [0.0]
タスク性能とタスク満足度はAIデリゲートによって向上することを示す。
我々は、これらの改善の基盤となるメカニズムとして、人間による自己効力の増大を見いだした。
我々の発見は、AIモデルがより多くの管理責任を引き継ぐことが、人間とAIのコラボレーションの効果的な形態であることを示す最初の証拠を提供する。
論文 参考訳(メタデータ) (2023-03-16T11:02:46Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - Proxy Tasks and Subjective Measures Can Be Misleading in Evaluating
Explainable AI Systems [14.940404609343432]
我々は、XAIシステムを評価するための2つの現在一般的な手法を評価した。
その結果,プロキシタスクによる評価は,実際の意思決定タスクによる評価結果の予測には至らなかった。
我々の研究は、誤解を招く評価手法を採用することで、人間やAI単独よりも確実にパフォーマンスを発揮できる人間とAIチームの開発に向けた進歩が、必然的に鈍化している可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-01-22T22:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。