論文の概要: A Gray Literature Study on Fairness Requirements in AI-enabled Software Engineering
- arxiv url: http://arxiv.org/abs/2512.07990v1
- Date: Mon, 08 Dec 2025 19:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.703546
- Title: A Gray Literature Study on Fairness Requirements in AI-enabled Software Engineering
- Title(参考訳): AI対応ソフトウェア工学におけるフェアネス要件に関するグレイ文学的研究
- Authors: Thanh Nguyen, Chaima Boufaied, Ronnie de Souza Santos,
- Abstract要約: 本稿では,AIの文脈における公平性要件を検証し,既存のグレー文献のレビューを行う。
我々のグレーの文献調査は、AIシステムにおけるフェアネス要件の様々な定義を示している。
公正要件違反は、データ表現バイアス、アルゴリズムとモデル設計バイアス、人間の判断、評価と透明性ギャップに頻繁にリンクされるが、制限されない。
- 参考スコア(独自算出の注目度): 3.5429774642987915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, with the growing obsession with applying Artificial Intelligence (AI), particularly Machine Learning (ML), to software across various contexts, much of the focus has been on the effectiveness of AI models, often measured through common metrics such as F1- score, while fairness receives relatively little attention. This paper presents a review of existing gray literature, examining fairness requirements in AI context, with a focus on how they are defined across various application domains, managed throughout the Software Development Life Cycle (SDLC), and the causes, as well as the corresponding consequences of their violation by AI models. Our gray literature investigation shows various definitions of fairness requirements in AI systems, commonly emphasizing non-discrimination and equal treatment across different demographic and social attributes. Fairness requirement management practices vary across the SDLC, particularly in model training and bias mitigation, fairness monitoring and evaluation, and data handling practices. Fairness requirement violations are frequently linked, but not limited, to data representation bias, algorithmic and model design bias, human judgment, and evaluation and transparency gaps. The corresponding consequences include harm in a broad sense, encompassing specific professional and societal impacts as key examples, stereotype reinforcement, data and privacy risks, and loss of trust and legitimacy in AI-supported decisions. These findings emphasize the need for consistent frameworks and practices to integrate fairness into AI software, paying as much attention to fairness as to effectiveness.
- Abstract(参考訳): 今日、人工知能(AI)、特に機械学習(ML)をさまざまな文脈でソフトウェアに適用することへの執着が高まり、AIモデルの有効性に焦点が当てられている。
本稿では,ソフトウェア開発ライフサイクル(SDLC, Software Development Life Cycle)を通じて管理されているさまざまなアプリケーションドメインに対して,それらがどのように定義されているか,そしてAIモデルによる侵害の結果として生じる原因について,既存のグレー文学のレビューを行い,AIコンテキストにおける公平性要件について考察する。
我々のグレーの文献調査は、AIシステムにおけるフェアネス要件のさまざまな定義を示し、一般に、異なる人口層と社会的属性の非差別と平等な扱いを強調しています。
公正要件管理のプラクティスはSDLC、特にモデルトレーニングとバイアス軽減、公正度監視と評価、データハンドリングのプラクティスによって異なります。
公正要件違反は、データ表現バイアス、アルゴリズムとモデル設計バイアス、人間の判断、評価と透明性ギャップに頻繁にリンクされるが、制限されない。
主な例としては、ステレオタイプ強化、データとプライバシのリスク、AIが支援する決定における信頼と正当性の喪失などが挙げられる。
これらの発見は、AIソフトウェアに公平性を統合するための一貫したフレームワークとプラクティスの必要性を強調し、有効性に対して公平性に注意を払う。
関連論文リスト
- FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications [8.443431821420537]
教育におけるAIの統合は、学習経験をパーソナライズし、教育実践を変革する大きな可能性を秘めている。
研究者がこれらのバイアスを理解して緩和しようとすると、教育AIの公平性を調べる研究が増えている。
この調査は、教育AIにおけるアルゴリズムフェアネスの総合的な体系的なレビューを提供する。
論文 参考訳(メタデータ) (2024-07-26T13:59:20Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。