論文の概要: AI Failure Loops in Devalued Work: The Confluence of Overconfidence in AI and Underconfidence in Worker Expertise
- arxiv url: http://arxiv.org/abs/2511.04922v1
- Date: Fri, 07 Nov 2025 01:51:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.646222
- Title: AI Failure Loops in Devalued Work: The Confluence of Overconfidence in AI and Underconfidence in Worker Expertise
- Title(参考訳): 評価作業におけるAIの失敗ループ:AIにおける過信と労働者の専門知識における過信の相違
- Authors: Anna Kawakami, Jordan Taylor, Sarah Fox, Haiyi Zhu, Kenneth Holstein,
- Abstract要約: 「フェミニズド労働の事例を考察し、歴史的に女性労働と誤認された非評価職業の類」
労働者のスキルの自動化に関する誤った判断が、労働者に価値をもたらすのに失敗するAIデプロイメントにつながっていることを示す。
- 参考スコア(独自算出の注目度): 22.485163311963493
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A growing body of literature has focused on understanding and addressing workplace AI design failures. However, past work has largely overlooked the role of the devaluation of worker expertise in shaping the dynamics of AI development and deployment. In this paper, we examine the case of feminized labor: a class of devalued occupations historically misnomered as ``women's work,'' such as social work, K-12 teaching, and home healthcare. Drawing on literature on AI deployments in feminized labor contexts, we conceptualize AI Failure Loops: a set of interwoven, socio-technical failure modes that help explain how the systemic devaluation of workers' expertise negatively impacts, and is impacted by, AI design, evaluation, and governance practices. These failures demonstrate how misjudgments on the automatability of workers' skills can lead to AI deployments that fail to bring value to workers and, instead, further diminish the visibility of workers' expertise. We discuss research and design implications for workplace AI, especially for devalued occupations.
- Abstract(参考訳): 成長する文学組織は、職場でのAI設計失敗を理解し、対処することに重点を置いている。
しかしながら、過去の作業は、AI開発とデプロイメントのダイナミクスを形成する上での、労働者の専門知識の切り下げの役割を概ね見落としている。
本稿では、歴史的に「女性の仕事」と誤認されていたフェミニズド労働の事例について、社会労働、K-12、在宅医療などについて考察する。
フェミニケーション労働の文脈におけるAIの展開に関する文献に基づいて、私たちはAIの失敗ループを概念化します。AI設計、評価、ガバナンスのプラクティスの影響を受け、労働者の専門知識の体系的非評価がどのように悪影響を及ぼすかを説明するのに役立つ、織り交わされた社会技術的失敗モードのセットです。
これらの失敗は、労働者のスキルの自動化に関する誤った判断が、労働者に価値をもたらすことのできないAIデプロイメントにつながり、労働者の専門知識の視認をさらに低下させることを示す。
職場AIの研究と設計について論じる。
関連論文リスト
- Assessing employment and labour issues implicated by using AI [0.0]
この章は、AIと労働研究における支配的な還元主義的アプローチを批判している。
タスク、役割、職場環境の相互依存を強調する体系的な視点を提唱する。
論文 参考訳(メタデータ) (2025-04-08T10:14:19Z) - De-skilling, Cognitive Offloading, and Misplaced Responsibilities: Potential Ironies of AI-Assisted Design [3.6284577335311563]
UXにフォーカスしたサブレディットから120以上の記事や議論を分析しました。
以上の結果から,実践者は繰り返し作業の削減と創造性の向上に楽観的であることが示唆された。
UX専門家は、AIの役割を即時生産性の向上を超えて批判的に評価すべきである、と私たちは主張する。
論文 参考訳(メタデータ) (2025-03-05T21:47:16Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Towards the Terminator Economy: Assessing Job Exposure to AI through LLMs [10.844598404826355]
米国の雇用の3分の1はAIに強く依存しており、主に大学院または大学院の教育を必要とする高度な職業で行われている。
高度な職業であっても、AIはタスク置換において高い多様性を示し、AIと人間は同じ職業の中で相互に補完することを示唆している。
すべての結果、モデル、コードはオンラインで公開されており、コミュニティが結果を再現し、結果を比較し、私たちの仕事をベンチマークとして使用して、時間とともにAIの進捗を監視します。
論文 参考訳(メタデータ) (2024-07-27T08:14:18Z) - The Potential Impact of AI Innovations on U.S. Occupations [3.0829845709781725]
私たちはDeep Learning Natural Language Processingを使って、大規模な作業に影響を及ぼす可能性のあるAI特許を特定します。
我々の方法論は、17,879のタスク記述の包括的なデータセットに依存し、AIの潜在的な影響を定量化する。
我々の結果は、いくつかの職業が潜在的に影響を受け、その影響は特定のスキルに複雑に結びついていることを示している。
論文 参考訳(メタデータ) (2023-12-07T21:44:07Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。