論文の概要: What do AI/ML practitioners think about AI/ML bias?
- arxiv url: http://arxiv.org/abs/2407.08895v1
- Date: Thu, 11 Jul 2024 23:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 01:16:30.504202
- Title: What do AI/ML practitioners think about AI/ML bias?
- Title(参考訳): AI/ML実践者はAI/MLバイアスについてどう考えるか?
- Authors: Aastha Pant, Rashina Hoda, Burak Turhan, Chakkrit Tantithamthavorn,
- Abstract要約: 我々の研究は、実践者の'AI/MLバイアス'に対する理解と、テック企業や研究者の定義との相違を明らかにした。
これらの取り組みは、AI/ML実践者が偏見のないAI/MLシステムの開発を支援することによって、投資に多大な利益をもたらす可能性がある。
- 参考スコア(独自算出の注目度): 11.846525587357489
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI leaders and companies have much to offer to AI/ML practitioners to support them in addressing and mitigating biases in the AI/ML systems they develop. AI/ML practitioners need to receive the necessary resources and support from experts to develop unbiased AI/ML systems. However, our studies have revealed a discrepancy between practitioners' understanding of 'AI/ML bias' and the definitions of tech companies and researchers. This indicates a misalignment that needs addressing. Efforts should be made to match practitioners' understanding of AI/ML bias with the definitions developed by tech companies and researchers. These efforts could yield a significant return on investment by aiding AI/ML practitioners in developing unbiased AI/ML systems.
- Abstract(参考訳): AIリーダや企業は、開発するAI/MLシステムのバイアスに対処し緩和する上で、AI/ML実践者を支援するために、多くのものを提供しています。
AI/ML実践者は、偏見のないAI/MLシステムを開発するために、専門家から必要なリソースとサポートを受けなければならない。
しかし,本研究では,「AI/MLバイアス」に対する実践者の理解と,技術系企業や研究者の定義との相違を明らかにした。
これは、対処が必要な不一致を示しています。
AI/MLバイアスに対する実践者の理解と、テック企業や研究者によって開発された定義とを一致させる努力をしなければならない。
これらの取り組みは、AI/ML実践者が偏見のないAI/MLシステムの開発を支援することによって、投資に多大な利益をもたらす可能性がある。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Navigating Fairness: Practitioners' Understanding, Challenges, and Strategies in AI/ML Development [11.846525587357489]
公正なAI/MLシステムの開発において、AI実践者の視点と経験を理解することに焦点を当てた実証的研究の欠如がある。
フェアAI/ML”とは何か,公正なAI/MLシステムを開発する上で直面する課題,不公平なAI/MLシステムの開発結果,AI/MLシステムの公平性を保証するための戦略などについて,22人のAI実践者との半構造化インタビューを行った。
この研究は、より公平なシステムを促進し、バイアスを減らし、AIテクノロジに対する公的な信頼を促進する、AI/ML公正性を高めるための実用的な洞察を提供する。
論文 参考訳(メタデータ) (2024-03-21T03:44:59Z) - Ethics in the Age of AI: An Analysis of AI Practitioners' Awareness and
Challenges [11.656193349991609]
我々は,AI実践者のAI倫理に対する意識と倫理を取り入れた課題を理解することを目的とした調査を行った。
この結果から,AI実践者の大多数が,AI倫理の概念に精通していることが示唆された。
フォーマルな教育・訓練は、実践者がAI倫理を取り入れるように準備するのに幾らか役立つと考えられていた。
論文 参考訳(メタデータ) (2023-07-14T02:50:46Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On Two XAI Cultures: A Case Study of Non-technical Explanations in
Deployed AI System [3.4918511133757977]
XAIの多くは、実際にはデプロイされたAIシステムの主要なオーディエンスであり、主要な利害関係者である非AI専門家には理解できない。
我々は,非技術者を対象としたXAI手法の開発が重要であることを主張する。
そして、AIの専門家が非技術ステークホルダーにAI決定の非技術的な説明を提供した、実生活のケーススタディを提示します。
論文 参考訳(メタデータ) (2021-12-02T07:02:27Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Ethics and Governance of Artificial Intelligence: Evidence from a Survey
of Machine Learning Researchers [0.0]
機械学習(ML)と人工知能(AI)の研究者は、AIの倫理とガバナンスにおいて重要な役割を果たす。
トップクラスのAI/MLカンファレンスで公開した人々の調査を行った。
AI/MLの研究者たちは、国際組織や科学組織に対して高いレベルの信頼を置いている。
論文 参考訳(メタデータ) (2021-05-05T15:23:12Z) - Advancing the Research and Development of Assured Artificial
Intelligence and Machine Learning Capabilities [2.688723831634804]
敵AI(A2I)と敵ML(AML)攻撃は、AI/MLモデルを欺いて操作しようとする。
AI/MLモデルはこれらの攻撃に対して防御できることが必須である。
A2I Working Group(A2IWG)は、保証されたAI/ML機能の研究と開発を推進しようとしている。
論文 参考訳(メタデータ) (2020-09-24T20:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。