論文の概要: Enduring Disparities in the Workplace: A Pilot Study in the AI Community
- arxiv url: http://arxiv.org/abs/2506.04305v1
- Date: Wed, 04 Jun 2025 17:40:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.345051
- Title: Enduring Disparities in the Workplace: A Pilot Study in the AI Community
- Title(参考訳): 職場における多様性の持続:AIコミュニティにおけるパイロットスタディ
- Authors: Yunusa Simipa Abdulsalam, Siobhan Mackenzie Hall, Ana Quintero-Ossa, William Agnew, Carla Muntean, Sarah Tan, Ashley Heady, Savannah Thais, Jessica Schrouff,
- Abstract要約: 産学歴1260名のAI/MLプロフェッショナルを対象に,異なる軸をまたいだパイロット調査を行った。
その結果, 職場経験における疎外・疎外化サブグループの持続的格差が示唆された。
我々は、アクセシビリティは、ポジティブな職場環境にとって重要な課題であり、障害者の従業員は、非障害者の同僚よりも職場経験が劣っていることを強調する。
- 参考スコア(独自算出の注目度): 3.4307685264019256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In efforts toward achieving responsible artificial intelligence (AI), fostering a culture of workplace transparency, diversity, and inclusion can breed innovation, trust, and employee contentment. In AI and Machine Learning (ML), such environments correlate with higher standards of responsible development. Without transparency, disparities, microaggressions and misconduct will remain unaddressed, undermining the very structural inequities responsible AI aims to mitigate. While prior work investigates workplace transparency and disparities in broad domains (e.g. science and technology, law) for specific demographic subgroups, it lacks in-depth and intersectional conclusions and a focus on the AI/ML community. To address this, we conducted a pilot survey of 1260 AI/ML professionals both in industry and academia across different axes, probing aspects such as belonging, performance, workplace Diversity, Equity and Inclusion (DEI) initiatives, accessibility, performance and compensation, microaggressions, misconduct, growth, and well-being. Results indicate enduring disparities in workplace experiences for underrepresented and/or marginalized subgroups. In particular, we highlight that accessibility remains an important challenge for a positive work environment and that disabled employees have a worse workplace experience than their non-disabled colleagues. We further surface disparities for intersectional groups and discuss how the implementation of DEI initiatives may differ from their perceived impact on the workplace. This study is a first step towards increasing transparency and informing AI/ML practitioners and organizations with empirical results. We aim to foster equitable decision-making in the design and evaluation of organizational policies and provide data that may empower professionals to make more informed choices of prospective workplaces.
- Abstract(参考訳): 責任ある人工知能(AI)を達成するために、職場の透明性、多様性、包摂性の文化を育むことで、イノベーション、信頼、従業員の満足感を育むことができる。
AIと機械学習(ML)では、このような環境は責任ある開発に関するより高い標準と相関する。
透明性、格差、微粒化、不正行為がなければ、AIに責任を負う構造的不平等を損なうことになる。
以前の研究では、特定の人口集団の広い領域(科学や技術、法律など)における職場の透明性と格差を調査していたが、詳細な結論や交差点の結論が得られず、AI/MLコミュニティに焦点が当てられている。
そこで我々は,AI/MLの専門家1260名を対象に,産学・産学・産学・産学・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業・学業の計1260名を対象としたパイロット調査を行った。
その結果, 職場経験における疎外・疎外化サブグループの持続的格差が示唆された。
特に、積極的労働環境においてアクセシビリティは依然として重要な課題であり、障害者の従業員は非障害者の同僚よりも職場経験が劣っていることを強調する。
交差するグループに対する格差をさらに明らかにし、DEAイニシアチブの実施が職場への影響に対する認識とどのように異なるかについて議論する。
この研究は、透明性を高め、AI/ML実践者や組織に経験的な結果を伝えるための第一歩です。
我々は,組織政策の設計と評価における公平な意思決定を促進することを目指しており,将来的な職場のより情報的な選択をプロフェッショナルに促すようなデータの提供を目指している。
関連論文リスト
- Diversity and Inclusion in AI: Insights from a Survey of AI/ML Practitioners [4.761639988815896]
人工知能(AI)システムに埋め込まれた社会的バイアスや不平等に対する認識が高まり、AIライフサイクル全体を通して多様性と包摂性(D&I)の原則の統合に注意が向けられている。
倫理的AIガイドラインの台頭にもかかわらず、現実世界の環境でのD&Iの適用方法に関する実証的な証拠は限られている。
この研究は、AIと機械学習(ML)の実践者がD&Iの原則をどう理解し、実践し、効果的導入を妨げる組織的課題を特定するかを探る。
論文 参考訳(メタデータ) (2025-05-24T05:40:23Z) - Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Employee Well-being in the Age of AI: Perceptions, Concerns, Behaviors, and Outcomes [0.0]
この研究は、AIが従業員の知覚、仕事の満足度、メンタルヘルス、維持をいかに形作るかを調べる。
AIシステムの透明性は、信頼とポジティブな従業員の態度を促進する重要な要因として現れます。
この研究は、AI職の幸福なインタラクションフレームワークを紹介している。
論文 参考訳(メタデータ) (2024-12-06T06:07:44Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Assessing the Fairness of AI Systems: AI Practitioners' Processes,
Challenges, and Needs for Support [18.148737010217953]
私たちは、実践者のプロセス、課題、サポートの必要性を特定するために、AI実践者とのインタビューとワークショップを行っています。
パフォーマンス指標を選択し、最も関連する直接的な利害関係者や人口統計グループを特定する際に、実践者が課題に直面していることに気付きました。
私たちは、直接利害関係者との関わりの欠如、疎外されたグループよりも顧客を優先するビジネスインペラティブ、大規模にAIシステムをデプロイする動機から生じる公正な作業への影響を特定します。
論文 参考訳(メタデータ) (2021-12-10T17:14:34Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。