論文の概要: Diversity and Inclusion in AI: Insights from a Survey of AI/ML Practitioners
- arxiv url: http://arxiv.org/abs/2505.18523v1
- Date: Sat, 24 May 2025 05:40:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 13:57:37.096953
- Title: Diversity and Inclusion in AI: Insights from a Survey of AI/ML Practitioners
- Title(参考訳): AIにおける多様性と包摂性:AI/ML実践者の調査から
- Authors: Sidra Malik, Muneera Bano, Didar Zowghi,
- Abstract要約: 人工知能(AI)システムに埋め込まれた社会的バイアスや不平等に対する認識が高まり、AIライフサイクル全体を通して多様性と包摂性(D&I)の原則の統合に注意が向けられている。
倫理的AIガイドラインの台頭にもかかわらず、現実世界の環境でのD&Iの適用方法に関する実証的な証拠は限られている。
この研究は、AIと機械学習(ML)の実践者がD&Iの原則をどう理解し、実践し、効果的導入を妨げる組織的課題を特定するかを探る。
- 参考スコア(独自算出の注目度): 4.761639988815896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Growing awareness of social biases and inequalities embedded in Artificial Intelligence (AI) systems has brought increased attention to the integration of Diversity and Inclusion (D&I) principles throughout the AI lifecycle. Despite the rise of ethical AI guidelines, there is limited empirical evidence on how D&I is applied in real-world settings. This study explores how AI and Machine Learning(ML) practitioners perceive and implement D&I principles and identifies organisational challenges that hinder their effective adoption. Using a mixed-methods approach, we surveyed industry professionals, collecting both quantitative and qualitative data on current practices, perceived impacts, and challenges related to D&I in AI. While most respondents recognise D&I as essential for mitigating bias and enhancing fairness, practical implementation remains inconsistent. Our analysis revealed a disconnect between perceived benefits and current practices, with major barriers including the under-representation of marginalised groups, lack of organisational transparency, and limited awareness among early-career professionals. Despite these barriers, respondents widely agree that diverse teams contribute to ethical, trustworthy, and innovative AI systems. By underpinning the key pain points and areas requiring improvement, this study highlights the need to bridge the gap between D&I principles and real-world AI development practices.
- Abstract(参考訳): 人工知能(AI)システムに埋め込まれた社会的バイアスや不平等に対する認識が高まり、AIライフサイクル全体を通して多様性と包摂性(D&I)の原則の統合に注意が向けられている。
倫理的AIガイドラインの台頭にもかかわらず、現実世界の環境でのD&Iの適用方法に関する実証的な証拠は限られている。
この研究は、AIと機械学習(ML)の実践者がD&Iの原則をどう理解し、実践し、効果的導入を妨げる組織的課題を特定するかを探る。
混合メソッドのアプローチを使用して、業界の専門家を調査し、現在のプラクティス、知覚された影響、AIにおけるD&Iに関連する課題について、定量データと定性データの両方を収集しました。
ほとんどの回答者は、バイアスを緩和し公平性を高めるためにD&Iが不可欠であると認識しているが、実践的実装は相容れないままである。
分析の結果,疎外集団の疎外化,組織的透明性の欠如,早期の専門職に対する意識の限定といった大きな障壁が指摘された。
これらの障壁にもかかわらず、回答者は多様なチームが倫理的、信頼できる、革新的なAIシステムに貢献していることに広く同意する。
この研究は、D&Iの原則と現実世界のAI開発プラクティスのギャップを埋める必要性を強調している。
関連論文リスト
- Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - What is Ethical: AIHED Driving Humans or Human-Driven AIHED? A Conceptual Framework enabling the Ethos of AI-driven Higher education [0.6216023343793144]
本研究は,ユネスコとOECDの倫理基準の遵守を保証するために,高次教育における人間駆動型AI(HD-AIHED)フレームワークを紹介する。
この研究は、参加型コシステム、フェーズドヒューマンインテリジェンス、SWOC分析、AI倫理レビューボードを適用して、大学やHE機関のAI準備とガバナンス戦略を評価する。
論文 参考訳(メタデータ) (2025-02-07T11:13:31Z) - From Principles to Practice: A Deep Dive into AI Ethics and Regulations [13.753819576072127]
この記事では、欧州連合が提案する画期的なAI規制フレームワークについて、徹底的に分析する。
学術や産業がこれらの原則を守ろうとする技術的努力と戦略を考えると、我々は5つの倫理的原則の相乗効果と矛盾を探求する。
論文 参考訳(メタデータ) (2024-12-06T00:46:20Z) - Diversity and Inclusion in AI for Recruitment: Lessons from Industry Workshop [44.807030880787345]
本研究では,AIによるオンライン求人システムにおけるD&Iガイドラインの実践的適用について検討する。
我々は多国籍採用企業と共同設計ワークショップを開催した。
この結果は、AIプラクティスの効果的な採用を保証するために、カスタマイズされたD&Iガイドラインと継続的なサポートを開発することを示唆している。
論文 参考訳(メタデータ) (2024-11-09T04:45:47Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。