論文の概要: Navigating Fairness: Practitioners' Understanding, Challenges, and Strategies in AI/ML Development
- arxiv url: http://arxiv.org/abs/2403.15481v2
- Date: Wed, 31 Jul 2024 14:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-02 14:14:35.352574
- Title: Navigating Fairness: Practitioners' Understanding, Challenges, and Strategies in AI/ML Development
- Title(参考訳): 公正をナビゲートする - AI/ML開発における実践者の理解、課題、戦略
- Authors: Aastha Pant, Rashina Hoda, Chakkrit Tantithamthavorn, Burak Turhan,
- Abstract要約: 公正なAI/MLシステムの開発において、AI実践者の視点と経験を理解することに焦点を当てた実証的研究の欠如がある。
フェアAI/ML”とは何か,公正なAI/MLシステムを開発する上で直面する課題,不公平なAI/MLシステムの開発結果,AI/MLシステムの公平性を保証するための戦略などについて,22人のAI実践者との半構造化インタビューを行った。
この研究は、より公平なシステムを促進し、バイアスを減らし、AIテクノロジに対する公的な信頼を促進する、AI/ML公正性を高めるための実用的な洞察を提供する。
- 参考スコア(独自算出の注目度): 11.846525587357489
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rise in the use of AI/ML applications across industries has sparked more discussions about the fairness of AI/ML in recent times. While prior research on the fairness of AI/ML exists, there is a lack of empirical studies focused on understanding the perspectives and experiences of AI practitioners in developing a fair AI/ML system. Understanding AI practitioners' perspectives and experiences on the fairness of AI/ML systems are important because they are directly involved in its development and deployment and their insights can offer valuable real-world perspectives on the challenges associated with ensuring fairness in AI/ML systems. We conducted semi-structured interviews with 22 AI practitioners to investigate their understanding of what a 'fair AI/ML' is, the challenges they face in developing a fair AI/ML system, the consequences of developing an unfair AI/ML system, and the strategies they employ to ensure AI/ML system fairness. We developed a framework showcasing the relationship between AI practitioners' understanding of 'fair AI/ML' system and (i) their challenges in its development, (ii) the consequences of developing an unfair AI/ML system, and (iii) strategies used to ensure AI/ML system fairness. By exploring AI practitioners' perspectives and experiences, this study provides actionable insights to enhance AI/ML fairness, which may promote fairer systems, reduce bias, and foster public trust in AI technologies. Additionally, we also identify areas for further investigation and offer recommendations to aid AI practitioners and AI companies in navigating fairness.
- Abstract(参考訳): 産業におけるAI/MLアプリケーションの普及は、近年のAI/MLの公平性に関する議論を巻き起こしている。
AI/MLの公正性に関する以前の研究は存在するが、公正なAI/MLシステムの開発において、AI実践者の視点と経験を理解することに焦点を当てた実証的研究は存在しない。
AI実践者の、AI/MLシステムの公正性に関する視点と経験を理解することは、その開発とデプロイメントに直接関わっており、彼らの洞察は、AI/MLシステムの公正性を保証するための課題に関する貴重な現実世界の視点を提供することができるため、重要である。
フェアAI/ML”とは何か,公正なAI/MLシステムを開発する上で直面する課題,不公平なAI/MLシステムの開発結果,AI/MLシステムの公平性を保証するための戦略などについて,22人のAI実践者との半構造化インタビューを行った。
我々は,AI実践者の「フェアAI/ML」システム理解と,その関連性を示す枠組みを開発した。
i) 開発における彼らの課題
二 不公平なAI/MLシステムの開発の結果
三 AI/MLシステムの公平性を確保するための戦略。
この研究は、AI実践者の視点と経験を探求することによって、より公平なシステムを促進し、バイアスを低減し、AIテクノロジに対する公的な信頼を促進する、AI/ML公正性を高めるための実用的な洞察を提供する。
さらに、さらなる調査のための領域も特定し、フェアネスをナビゲートするAI実践者やAI企業を支援するためのレコメンデーションを提供します。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Can We Trust AI Agents? An Experimental Study Towards Trustworthy LLM-Based Multi-Agent Systems for AI Ethics [10.084913433923566]
本研究では,信頼度向上技術が倫理的AI出力生成に与える影響について検討する。
我々はLLM-BMASのプロトタイプを設計し、エージェントは現実世界の倫理的AI問題に関する構造化された議論を行う。
議論では、バイアス検出、透明性、説明責任、ユーザの同意、コンプライアンス、公正性評価、EU AI Actコンプライアンスといった用語が明らかにされている。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - What do AI/ML practitioners think about AI/ML bias? [11.846525587357489]
我々の研究は、実践者の'AI/MLバイアス'に対する理解と、テック企業や研究者の定義との相違を明らかにした。
これらの取り組みは、AI/ML実践者が偏見のないAI/MLシステムの開発を支援することによって、投資に多大な利益をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-07-11T23:43:25Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Inherent Limitations of AI Fairness [16.588468396705366]
AIフェアネスの研究は、コンピュータ科学、社会科学、法学、哲学と結びついた豊富な研究分野へと急速に発展してきた。
AIフェアネスの測定と達成のための多くの技術的ソリューションが提案されているが、そのアプローチは近年、誤解を招く、非現実的で有害であるとして批判されている。
論文 参考訳(メタデータ) (2022-12-13T11:23:24Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。