論文の概要: A Question Bank to Assess AI Inclusivity: Mapping out the Journey from Diversity Errors to Inclusion Excellence
- arxiv url: http://arxiv.org/abs/2506.18538v1
- Date: Mon, 23 Jun 2025 11:48:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.963906
- Title: A Question Bank to Assess AI Inclusivity: Mapping out the Journey from Diversity Errors to Inclusion Excellence
- Title(参考訳): AIのインクルーシティを評価するための質問銀行:ダイバーシティエラーからインクルージョン・エクセレンスへの旅をマッピングする
- Authors: Rifat Ara Shams, Didar Zowghi, Muneera Bano,
- Abstract要約: 本稿では,AIの傾きを評価するために設計された253の質問からなる,構造化されたAI傾き質問銀行を紹介する。
質問銀行の開発には、文献レビューやD&Iガイドライン、責任あるAIフレームワークからの洞察を取り入れた、反復的なマルチソースアプローチが含まれていた。
シミュレーション評価は、異なるAIジョブに関連する70のAI生成ペルソナを用いて実施され、質問銀行のAIインクリビティとの関連性と有効性を評価した。
- 参考スコア(独自算出の注目度): 5.364403920214549
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring diversity and inclusion (D&I) in artificial intelligence (AI) is crucial for mitigating biases and promoting equitable decision-making. However, existing AI risk assessment frameworks often overlook inclusivity, lacking standardized tools to measure an AI system's alignment with D&I principles. This paper introduces a structured AI inclusivity question bank, a comprehensive set of 253 questions designed to evaluate AI inclusivity across five pillars: Humans, Data, Process, System, and Governance. The development of the question bank involved an iterative, multi-source approach, incorporating insights from literature reviews, D&I guidelines, Responsible AI frameworks, and a simulated user study. The simulated evaluation, conducted with 70 AI-generated personas related to different AI jobs, assessed the question bank's relevance and effectiveness for AI inclusivity across diverse roles and application domains. The findings highlight the importance of integrating D&I principles into AI development workflows and governance structures. The question bank provides an actionable tool for researchers, practitioners, and policymakers to systematically assess and enhance the inclusivity of AI systems, paving the way for more equitable and responsible AI technologies.
- Abstract(参考訳): 人工知能(AI)における多様性と包摂性(D&I)の確保は、バイアスを緩和し、公平な意思決定を促進するために不可欠である。
しかしながら、既存のAIリスクアセスメントフレームワークは、AIシステムのD&I原則との整合性を測定するための標準化されたツールが欠如しているため、傾向を見落としていることが多い。
本稿では,5つの柱(人間,データ,プロセス,システム,ガバナンス)にまたがるAI傾斜度を評価するために設計された,構造化されたAI傾斜度質問銀行について紹介する。
質問銀行の開発には、文献レビューやD&Iガイドライン、責任あるAIフレームワーク、シミュレートされたユーザスタディからの洞察を取り入れた、反復的でマルチソースなアプローチが含まれていた。
シミュレーション評価は、さまざまなAIジョブに関連する70のAI生成ペルソナを用いて実施され、さまざまな役割やアプリケーションドメインにわたるAIインクリビティに対する質問銀行の妥当性と有効性を評価した。
この調査結果は、AI開発ワークフローとガバナンス構造にD&I原則を統合することの重要性を強調している。
質問銀行は、研究者、実践家、政策立案者に対して、AIシステムの傾きを体系的に評価し、強化し、より公平で責任あるAI技術への道を開くための実行可能なツールを提供する。
関連論文リスト
- Diversity and Inclusion in AI: Insights from a Survey of AI/ML Practitioners [4.761639988815896]
人工知能(AI)システムに埋め込まれた社会的バイアスや不平等に対する認識が高まり、AIライフサイクル全体を通して多様性と包摂性(D&I)の原則の統合に注意が向けられている。
倫理的AIガイドラインの台頭にもかかわらず、現実世界の環境でのD&Iの適用方法に関する実証的な証拠は限られている。
この研究は、AIと機械学習(ML)の実践者がD&Iの原則をどう理解し、実践し、効果的導入を妨げる組織的課題を特定するかを探る。
論文 参考訳(メタデータ) (2025-05-24T05:40:23Z) - Perceptions of Agentic AI in Organizations: Implications for Responsible AI and ROI [0.0]
本稿では,エージェントAIの出現する状況の中で,組織がこのようなフレームワークをどのように認識し,適応するかを検討する。
エージェントAIシステムの本質的な複雑さと、その責任ある実装は、責任あるAI次元とテーマフレームワークの複雑な相互接続性に根ざし、組織的適応における重大な課題に寄与している。
論文 参考訳(メタデータ) (2025-04-15T19:15:06Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Vision for Operationalising Diversity and Inclusion in AI [5.4897262701261225]
本研究は,AIエコシステムにおける多様性と包摂性(D&I)の倫理的命令の運用を想定することを目的とする。
AI開発における重要な課題は、D&Iの原則を効果的に運用することである。
本稿では,ジェネレーティブAI(GenAI)を用いたペルソナシミュレーションを活用したツール開発のためのフレームワークの構想を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:44:39Z) - Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog [0.0]
AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
論文 参考訳(メタデータ) (2023-06-20T08:07:18Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。