論文の概要: Software Fairness Testing in Practice
- arxiv url: http://arxiv.org/abs/2506.17095v1
- Date: Fri, 20 Jun 2025 16:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.521681
- Title: Software Fairness Testing in Practice
- Title(参考訳): ソフトウェアフェアネステストの実践
- Authors: Ronnie de Souza Santos, Matheus de Morais Leca, Reydne Santos, Cleyton Magalhaes,
- Abstract要約: 本研究では、ソフトウェアプロフェッショナルがAIとMLプロジェクトに取り組む22人の実践者とのインタビューを通じて、公正のためにAIを活用したシステムをテストする方法について検討する。
以上の結果から,理論的公正の概念と産業実践との間に大きなギャップがあることが示唆された。
主な課題は、データ品質と多様性、時間制約、効果的なメトリクスの定義、モデルの相互運用性の確保である。
- 参考スコア(独自算出の注目度): 0.21427777919040417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software testing ensures that a system functions correctly, meets specified requirements, and maintains high quality. As artificial intelligence and machine learning (ML) technologies become integral to software systems, testing has evolved to address their unique complexities. A critical advancement in this space is fairness testing, which identifies and mitigates biases in AI applications to promote ethical and equitable outcomes. Despite extensive academic research on fairness testing, including test input generation, test oracle identification, and component testing, practical adoption remains limited. Industry practitioners often lack clear guidelines and effective tools to integrate fairness testing into real-world AI development. This study investigates how software professionals test AI-powered systems for fairness through interviews with 22 practitioners working on AI and ML projects. Our findings highlight a significant gap between theoretical fairness concepts and industry practice. While fairness definitions continue to evolve, they remain difficult for practitioners to interpret and apply. The absence of industry-aligned fairness testing tools further complicates adoption, necessitating research into practical, accessible solutions. Key challenges include data quality and diversity, time constraints, defining effective metrics, and ensuring model interoperability. These insights emphasize the need to bridge academic advancements with actionable strategies and tools, enabling practitioners to systematically address fairness in AI systems.
- Abstract(参考訳): ソフトウェアテストは、システムが正しく機能し、特定の要件を満たし、高品質を維持することを保証します。
人工知能と機械学習(ML)技術がソフトウェアシステムに不可欠なものとなるにつれ、テストはその特異な複雑さに対処するために進化してきた。
この領域における重要な進歩は公正テストであり、倫理的かつ公平な結果を促進するためにAIアプリケーションのバイアスを特定し緩和する。
テスト入力生成、テストオラクル識別、コンポーネントテストなど、フェアネステストに関する広範な学術研究にもかかわらず、実用的採用は限られている。
業界実践者は、現実のAI開発に公正テストを統合するための明確なガイドラインや効果的なツールを欠いていることが多い。
本研究では、ソフトウェアプロフェッショナルがAIとMLプロジェクトに取り組む22人の実践者とのインタビューを通じて、公正のためにAIを活用したシステムをテストする方法について検討する。
以上の結果から,理論的公正の概念と産業実践との間に大きなギャップがあることが示唆された。
公正の定義は進化し続けるが、実践者が解釈し適用することが難しいままである。
業界に整合した公正性テストツールがないことは、採用をさらに複雑にし、実践的でアクセス可能なソリューションの研究を必要とする。
主な課題は、データ品質と多様性、時間制約、効果的なメトリクスの定義、モデルの相互運用性の確保である。
これらの洞察は、学術的な進歩を実行可能な戦略とツールで橋渡しすることの必要性を強調し、実践者がAIシステムの公平性に体系的に対処できるようにする。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Expectations vs Reality -- A Secondary Study on AI Adoption in Software Testing [0.7812210699650152]
ソフトウェア産業では、人工知能(AI)がソフトウェア開発活動でますます利用されている。
本研究の目的は,ソフトウェアテストにおけるAIにおける産業文脈による実証研究の種類を特定することである。
論文 参考訳(メタデータ) (2025-04-07T11:03:54Z) - The Future of Software Testing: AI-Powered Test Case Generation and Validation [0.0]
本稿では、テストケースの生成と検証を改善する上で、AIが持つ変革の可能性について考察する。
テストプロセスの効率性、正確性、スケーラビリティを高める能力に重点を置いている。
また、高品質なトレーニングデータの必要性など、テストにAIを適用する際の重要な課題にも対処している。
論文 参考訳(メタデータ) (2024-09-09T17:12:40Z) - The Role of Artificial Intelligence and Machine Learning in Software Testing [0.14896196009851972]
人工知能(AI)と機械学習(ML)は様々な産業に大きな影響を与えている。
ソフトウェア開発ライフサイクル(SDLC)の重要な部分であるソフトウェアテストは、ソフトウェア製品の品質と信頼性を保証する。
本稿では、既存の文献をレビューし、現在のツールや技術を分析し、ケーススタディを提示することで、ソフトウェアテストにおけるAIとMLの役割について考察する。
論文 参考訳(メタデータ) (2024-09-04T13:25:13Z) - Comparing Software Developers with ChatGPT: An Empirical Investigation [0.0]
本稿では,ChatGPTのようなソフトウェア技術者やAIシステムのパフォーマンスを,さまざまな評価指標で比較した実証的研究を行う。
この論文は、さまざまな評価基準を考慮して、ソフトウェアエンジニアとAIベースのソリューションの包括的な比較が、人間と機械のコラボレーションを促進する上で重要であることを示唆している。
論文 参考訳(メタデータ) (2023-05-19T17:25:54Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。