論文の概要: Barriers to AI Adoption: Image Concerns at Work
- arxiv url: http://arxiv.org/abs/2511.18582v1
- Date: Sun, 23 Nov 2025 18:50:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.910214
- Title: Barriers to AI Adoption: Image Concerns at Work
- Title(参考訳): AI採用の障壁 - 職場でのイメージ上の懸念
- Authors: David Almog,
- Abstract要約: 私は、労働者がAIへの依存が評価者に見える場合、低いレートでAIレコメンデーションを採用することに気付きました。
労働者がAIに大きく依存することを恐れていることが、労働者自身の判断に対する自信の欠如を示唆していることを示す、インセンティブに適合する新しい方法を紹介します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concerns about how workers are perceived can deter effective collaboration with artificial intelligence (AI). In a field experiment on a large online labor market, I hired 450 U.S.-based remote workers to complete an image-categorization job assisted by AI recommendations. Workers were incentivized by the prospect of a contract extension based on an HR evaluator's feedback. I find that workers adopt AI recommendations at lower rates when their reliance on AI is visible to the evaluator, resulting in a measurable decline in task performance. The effects are present despite a conservative design in which workers know that the evaluator is explicitly instructed to assess expected accuracy on the same AI-assisted task. This reduction in AI reliance persists even when the evaluator is reassured about workers' strong performance history on the platform, underscoring how difficult these concerns are to alleviate. Leveraging the platform's public feedback feature, I introduce a novel incentive-compatible elicitation method showing that workers fear heavy reliance on AI signals a lack of confidence in their own judgment, a trait they view as essential when collaborating with AI.
- Abstract(参考訳): 労働者の認識に関する懸念は、人工知能(AI)との効果的なコラボレーションを抑えることができる。
大規模なオンライン労働市場での実験で、私は450人の米国拠点のリモートワーカーを雇い、AIレコメンデーションによる画像分類の仕事を完成させました。
労働者は、人事評価者のフィードバックに基づいて、契約延長の見通しによってインセンティブを得た。
労働者はAIへの依存度が評価対象に反映されている場合、低いレートでAIレコメンデーションを採用することで、タスクのパフォーマンスが測定不能に低下することがわかった。
この効果は、労働者がAI支援タスクで期待された精度を評価するよう明示的に指示されたことを知っていながら、保守的な設計にもかかわらず存在する。
このAI依存の削減は、評価者がプラットフォーム上での労働者の強いパフォーマンス履歴について再確認されたとしても継続し、これらの懸念が緩和されるのがいかに難しいかを強調している。
このプラットフォームのパブリックフィードバック機能を活用することで、労働者がAIに大きく依存することを恐れることによって、自分たちの判断に対する自信の欠如が示される、新たなインセンティブ互換のエレケーション手法を導入します。
関連論文リスト
- AI Failure Loops in Devalued Work: The Confluence of Overconfidence in AI and Underconfidence in Worker Expertise [22.485163311963493]
「フェミニズド労働の事例を考察し、歴史的に女性労働と誤認された非評価職業の類」
労働者のスキルの自動化に関する誤った判断が、労働者に価値をもたらすのに失敗するAIデプロイメントにつながっていることを示す。
論文 参考訳(メタデータ) (2025-11-07T01:51:57Z) - Experimental Evidence That AI-Managed Workers Tolerate Lower Pay Without Demotivation [7.306174397662034]
AI管理に対する労働者の反応に関する実験的証拠は、部分的には実験的忠実性の限界のために、相変わらず混在している。
これらの制限をMinecraftプラットフォームでカスタマイズされた職場で解決し、自律的なタスク実行の高解像度な行動追跡を可能にする。
労働者は人間、AI、ハイブリッド管理の下で繰り返し生産タスクを完了した。
AIマネージャは、労働者のモチベーションや公正感に悪影響を与えることなく、人間の定義した評価原則に基づいて体系的に低いパフォーマンスレーティングと賃金を40%削減した。
論文 参考訳(メタデータ) (2025-05-27T20:40:18Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Employee Well-being in the Age of AI: Perceptions, Concerns, Behaviors, and Outcomes [0.0]
この研究は、AIが従業員の知覚、仕事の満足度、メンタルヘルス、維持をいかに形作るかを調べる。
AIシステムの透明性は、信頼とポジティブな従業員の態度を促進する重要な要因として現れます。
この研究は、AI職の幸福なインタラクションフレームワークを紹介している。
論文 参考訳(メタデータ) (2024-12-06T06:07:44Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Towards the Terminator Economy: Assessing Job Exposure to AI through LLMs [10.844598404826355]
米国の雇用の3分の1はAIに強く依存しており、主に大学院または大学院の教育を必要とする高度な職業で行われている。
高度な職業であっても、AIはタスク置換において高い多様性を示し、AIと人間は同じ職業の中で相互に補完することを示唆している。
すべての結果、モデル、コードはオンラインで公開されており、コミュニティが結果を再現し、結果を比較し、私たちの仕事をベンチマークとして使用して、時間とともにAIの進捗を監視します。
論文 参考訳(メタデータ) (2024-07-27T08:14:18Z) - AI and Jobs: Has the Inflection Point Arrived? Evidence from an Online Labor Platform [0.13124513975412255]
我々は、AIが異なるオンライン労働市場(OLM)のフリーランサーにどのように影響するかを調査する。
そこで我々はCournot型競合モデルを開発した。
合衆国のWebデベロッパは、他のリージョンに比べてChatGPTのリリースの恩恵を受ける傾向にある。
論文 参考訳(メタデータ) (2023-12-07T10:06:34Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。