論文の概要: Team Diversity Promotes Software Fairness: An Experiment on Fairness-Aware Requirements Prioritization
- arxiv url: http://arxiv.org/abs/2603.12406v1
- Date: Thu, 12 Mar 2026 19:38:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.743439
- Title: Team Diversity Promotes Software Fairness: An Experiment on Fairness-Aware Requirements Prioritization
- Title(参考訳): チームの多様性がソフトウェアフェアネスを促進する - フェアネスを考慮した要求優先化の実験
- Authors: Cleyton Magalhes, Ronnie de Souza Santos, Bimpe Ayoola, Brody Stuart-Verner, Italo Santos,
- Abstract要約: 本研究では,ソフトウェアチームの多様性が要求優先順位付け時の公正意識行動にどのように影響するかを検討する。
チームの多様性は、要求分析中の公平性の問題の識別と解釈を強化することができる。
- 参考スコア(独自算出の注目度): 4.730233684561005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: \textbf{Background:} Fairness and diversity are receiving growing attention in software engineering, particularly as AI and machine learning systems increasingly influence decision-making processes. While fairness is often examined at the algorithmic or data level, there is limited understanding of how it is addressed during the early stages of software development. Moreover, little is known about how team diversity affects fairness-related decisions in software projects. \textbf{Aims:} This study investigates how diversity in software teams influences fairness-aware behavior during requirements prioritization. \textbf{Method:} A controlled experiment was conducted with 27 pairs of software engineering students, including 13 LGBTQ diverse pairs and 14 non diverse pairs. Each pair prioritized user stories with varying fairness implications. Descriptive statistics were used to analyze attitudes and prioritization outcomes, and thematic analysis was applied to examine the reasoning behind participants' decisions. \textbf{Results:} Both groups demonstrated general alignment with fairness principles, prioritizing features that promoted equitable treatment and rejecting those that posed fairness risks. However, LGBTQ diverse pairs were more consistent in rejecting fairness risking stories and made fewer fairness related misprioritization errors. Their reasoning emphasized inclusion, non discrimination, and ethical responsibility, whereas non diverse pairs adopted a more pragmatic, goal oriented perspective. \textbf{Conclusions:} The findings indicate that fairness should be considered from the earliest stages of software development. Team diversity can enhance the identification and interpretation of fairness issues during requirements analysis, fostering more reflective and inclusive decision making.
- Abstract(参考訳): \textbf{Background:} 公正さと多様性は、ソフトウェア工学、特にAIや機械学習システムが意思決定プロセスに影響を及ぼすにつれて、ますます注目を集めている。
公平性はしばしばアルゴリズムやデータレベルで検証されるが、ソフトウェア開発の初期段階においてどのように対処されるかについては、限定的な理解がある。
さらに、チームの多様性がソフトウェアプロジェクトの公平性に関する決定にどのように影響するかについては、ほとんど分かっていない。
a bf{Aims:} この研究は、ソフトウェアチームの多様性が要求優先順位付け時の公平な振る舞いにどのように影響するかを調査する。
a bf{Method:} 13組のLGBTQと14組の非多様性のペアを含む27組のソフトウェア工学の学生による制御実験を行った。
各ペアは、さまざまな公正な影響でユーザーストーリーを優先順位付けした。
説明的統計は態度や優先順位付けの結果の分析に用いられ, 被験者の判断の背景にある理由を調べるために, テーマ分析が適用された。
\textbf{Results:} 両グループは公平性の原則と一般的な整合性を示し、公平な治療を促進する特徴を優先し、公平性のリスクを生じさせるものを拒絶した。
しかし、LGBTQの多様なペアは、フェアネスのリスクを負うストーリーを拒絶する上でより一貫性があり、フェアネスに関するミスプライオリティ化エラーを少なくした。
彼らの推論は包摂性、非差別性、倫理的責任を強調したが、非多様なペアはより実践的で目標志向の視点を採用した。
\textbf{Conclusions:} この調査結果は、ソフトウェア開発の初期段階から公平性を考慮すべきであることを示している。
チームの多様性は、要求分析中の公平性の問題の識別と解釈を強化し、より反射的で包括的な意思決定を促進する。
関連論文リスト
- Measuring Perceptions of Fairness in AI Systems: The Effects of Infra-marginality [2.48490797934472]
仮説的医学的意思決定シナリオにおいて,85名の被験者によるユーザスタディを提示する。
以上の結果から,参加者の公正度は単純統計値と同等ではなかったことが示唆された。
これらの結果は、公正判断は結果だけでなく、不一致の原因についての信念によっても形成されていることを示している。
論文 参考訳(メタデータ) (2026-03-06T04:15:52Z) - A Gray Literature Study on Fairness Requirements in AI-enabled Software Engineering [3.5429774642987915]
本稿では,AIの文脈における公平性要件を検証し,既存のグレー文献のレビューを行う。
我々のグレーの文献調査は、AIシステムにおけるフェアネス要件の様々な定義を示している。
公正要件違反は、データ表現バイアス、アルゴリズムとモデル設計バイアス、人間の判断、評価と透明性ギャップに頻繁にリンクされるが、制限されない。
論文 参考訳(メタデータ) (2025-12-08T19:22:01Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。