論文の概要: Practitioner Insights on Fairness Requirements in the AI Development Life Cycle: An Interview Study
- arxiv url: http://arxiv.org/abs/2512.13830v1
- Date: Mon, 15 Dec 2025 19:12:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.460784
- Title: Practitioner Insights on Fairness Requirements in the AI Development Life Cycle: An Interview Study
- Title(参考訳): AI開発ライフサイクルにおける公正要件に関する実践的考察--インタビュー研究
- Authors: Chaima Boufaied, Thanh Nguyen, Ronnie de Souza Santos,
- Abstract要約: ソフトウェア工学の観点からAIの公平性要件について検討した。
本研究は,AI/MLソフトウェアにおける参加者の公正意識とソフトウェア開発ライフサイクル(SDLC)における適用性を評価する。
調査の結果、参加者は前述のAIフェアネスの次元を認識しているが、プラクティスは矛盾しており、フェアネスは目立った知識のギャップで優先順位付けされることが多いことがわかった。
- 参考スコア(独自算出の注目度): 3.5429774642987915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, Artificial Intelligence (AI), particularly Machine Learning (ML) and Large Language Models (LLMs), is widely applied across various contexts. However, the corresponding models often operate as black boxes, leading them to unintentionally act unfairly towards different demographic groups. This has led to a growing focus on fairness in AI software recently, alongside the traditional focus on the effectiveness of AI models. Through 26 semi-structured interviews with practitioners from different application domains and with varied backgrounds across 23 countries, we conducted research on fairness requirements in AI from software engineering perspective. Our study assesses the participants' awareness of fairness in AI / ML software and its application within the Software Development Life Cycle (SDLC), from translating fairness concerns into requirements to assessing their arising early in the SDLC. It also examines fairness through the key assessment dimensions of implementation, validation, evaluation, and how it is balanced with trade-offs involving other priorities, such as addressing all the software functionalities and meeting critical delivery deadlines. Findings of our thematic qualitative analysis show that while our participants recognize the aforementioned AI fairness dimensions, practices are inconsistent, and fairness is often deprioritized with noticeable knowledge gaps. This highlights the need for agreement with relevant stakeholders on well-defined, contextually appropriate fairness definitions, the corresponding evaluation metrics, and formalized processes to better integrate fairness into AI/ML projects.
- Abstract(参考訳): 現在、人工知能(AI)、特に機械学習(ML)と大規模言語モデル(LLM)は様々な文脈で広く適用されている。
しかし、対応するモデルはしばしばブラックボックスとして機能し、異なる人口集団に対して意図せず不公平に行動する。
このことが、AIモデルの有効性に伝統的な焦点を合わせながら、近年、AIソフトウェアにおける公正性に焦点をあてている。
ソフトウェア工学の観点から,23カ国にまたがるさまざまな背景を持つ,異なるアプリケーションドメインの実践者との26の半構造化インタビューを通じて,AIの公正性要件に関する調査を行った。
本研究では,AI/MLソフトウェアにおける参加者の公平さに対する意識と,ソフトウェア開発ライフサイクル(SDLC)におけるその適用性を評価する。
また、実装、検証、評価といった重要な評価の側面を通じて公正さを検証し、ソフトウェア機能のすべてに対処し、重要な納品期限に間に合うように、他の優先順位を含むトレードオフとどのようにバランスをとるかを調べます。
テーマ的質的分析の発見は、参加者が前述のAIフェアネスの次元を認識しているのに対して、プラクティスは矛盾しており、フェアネスは目立った知識ギャップで優先順位付けされることが多いことを示している。
これは、適切に定義された、文脈的に適切な公正の定義、対応する評価指標、AI/MLプロジェクトに公平性をよりよく統合するための形式化されたプロセスに関する、関連するステークホルダとの合意の必要性を強調します。
関連論文リスト
- A Gray Literature Study on Fairness Requirements in AI-enabled Software Engineering [3.5429774642987915]
本稿では,AIの文脈における公平性要件を検証し,既存のグレー文献のレビューを行う。
我々のグレーの文献調査は、AIシステムにおけるフェアネス要件の様々な定義を示している。
公正要件違反は、データ表現バイアス、アルゴリズムとモデル設計バイアス、人間の判断、評価と透明性ギャップに頻繁にリンクされるが、制限されない。
論文 参考訳(メタデータ) (2025-12-08T19:22:01Z) - Software Fairness Testing in Practice [0.21427777919040417]
本研究では、ソフトウェアプロフェッショナルがAIとMLプロジェクトに取り組む22人の実践者とのインタビューを通じて、公正のためにAIを活用したシステムをテストする方法について検討する。
以上の結果から,理論的公正の概念と産業実践との間に大きなギャップがあることが示唆された。
主な課題は、データ品質と多様性、時間制約、効果的なメトリクスの定義、モデルの相互運用性の確保である。
論文 参考訳(メタデータ) (2025-06-20T16:03:02Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog [0.0]
AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
論文 参考訳(メタデータ) (2023-06-20T08:07:18Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。