論文の概要: It is Giving Major Satisfaction: Why Fairness Matters for Developers
- arxiv url: http://arxiv.org/abs/2410.02482v2
- Date: Wed, 04 Dec 2024 17:56:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:05:40.142242
- Title: It is Giving Major Satisfaction: Why Fairness Matters for Developers
- Title(参考訳): 開発者にとってフェアネスが重要な理由
- Authors: Emeralda Sesari, Federica Sarro, Ayushi Rastogi,
- Abstract要約: 本研究は,ソフトウェア実践者の仕事満足度に対する公正感の関連について検討する。
調査の結果,4つの公正度は全体の仕事の満足度と仕事のセキュリティに対する満足度に有意な影響を及ぼすことがわかった。
フェアネスと仕事の満足度の関係は、女性、民族的に劣る、経験の浅い実践者、仕事の制限のある者にとってより強くなっている。
- 参考スコア(独自算出の注目度): 9.312605205492456
- License:
- Abstract: Software practitioners often encounter workplace unfairness, such as unequal recognition and gender bias. While the link between fairness and job satisfaction has been established in other fields, its relevance to software professionals remains underexplored. This study examines how fairness perceptions relate to job satisfaction among software practitioners, focusing on both general trends and demographic-specific differences. We conducted an online survey of 108 software practitioners, followed by ordinal logistic regression to analyze the relationship between fairness perceptions and job satisfaction in software engineering contexts, with moderation analysis examining how this relationship varies across demographic groups. Our findings indicate that all four fairness dimensions (namely distributive, procedural, interpersonal, and informational fairness) significantly affect overall job satisfaction and satisfaction with job security. Among these, interpersonal fairness has the biggest impact. The relationship between fairness and job satisfaction is stronger for female, ethnically underrepresented, less experienced practitioners, and those with work limitations. Fairness in authorship emerged as an important factor for job satisfaction collectively, while fairness in policy implementation, high-demand situations, and working hours impacted specific demographic groups. This study highlights the role of fairness among software practitioners, offering strategies for organizations to promote fair practices and targeted approaches for certain demographic groups.
- Abstract(参考訳): ソフトウェア実践者は、不平等な認識や性バイアスなど、職場の不公平に遭遇することが多い。
公正さと仕事の満足度との関係は他の分野で確立されているが、ソフトウェア専門家との関係はいまだに未解明である。
本研究は,ソフトウェア実践者における公正感と仕事満足度との関連性について検討し,一般的な傾向と人口統計学的差異に着目した。
我々は,108人のソフトウェア実践者のオンライン調査を行い,それに続いて,ソフトウェア工学の文脈における公正感と仕事満足度との関係を分析し,この関係が集団間でどのように異なるのかをモデレーション分析した。
その結果,4つの公正度(すなわち,分配的,手続き的,対人的,情報的公正度)が全体の仕事満足度や仕事の安全度に大きく影響していることが示唆された。
このうち、対人フェアネスが最大の影響を与える。
フェアネスと仕事の満足度の関係は、女性、民族的に劣る、経験の浅い実践者、仕事の制限のある者にとってより強くなっている。
著作者の公正さは、雇用満足度をまとめる重要な要因として現れ、政策実施の公正さ、需要の高い状況、労働時間などは、特定の人口集団に影響を及ぼした。
本研究は,ソフトウェア実践者における公正性の役割を強調し,公正な実践を促進するための組織戦略と,特定の人口集団を対象としたアプローチを提案する。
関連論文リスト
- A Human-in-the-Loop Fairness-Aware Model Selection Framework for Complex Fairness Objective Landscapes [37.5215569371757]
ManyFairHPOはフェアネスを意識したモデル選択フレームワークで、実践者が複雑でニュアンスのあるフェアネスの客観的な風景をナビゲートすることを可能にする。
我々は,複数のフェアネス目標のバランス,自己充足的予言などのリスク軽減,公平性を考慮したモデリング決定における利害関係者の導出のための解釈可能な洞察の提供などにおけるMaryFairHPOの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-17T07:32:24Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - The Role of Relevance in Fair Ranking [1.5469452301122177]
妥当性スコアは、公正な介入を導くために、望ましい基準のセットを満たすべきであると論じる。
次に、偏りのあるユーザクリックデータから推定される関連性のケーススタディにおいて、これらの基準がすべて満たされているわけではないことを実証的に示す。
分析と結果から,関連収集・生成への新たなアプローチの必要性が浮き彫りになっている。
論文 参考訳(メタデータ) (2023-05-09T16:58:23Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Long-term dynamics of fairness: understanding the impact of data-driven
targeted help on job seekers [1.357291726431012]
我々は、統計と機械学習を組み合わせたアプローチを用いて、労働市場の介入による長期的な公正効果を評価する。
我々は、求職者を選択的に支援する公共雇用機関による意思決定の影響を調べるためのモデルを開発し、利用する。
実世界のシステムにおけるトレードオフの定量化と長期的公正効果を評価するためには、周辺労働市場の慎重なモデリングが不可欠である。
論文 参考訳(メタデータ) (2022-08-17T12:03:23Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Fair Machine Learning Under Partial Compliance [22.119168255562897]
本稿では,雇用市場のシンプルなモデルを提案し,シミュレーションを応用して,インタラクション効果とインセンティブ効果が結果や監査指標に与える影響を調査する。
我々の主要な発見は、均衡において、部分的コンプライアンス(雇用主のk%)は、完全なコンプライアンス結果に対して、はるかに少ない(k%)進歩をもたらすことである。
論文 参考訳(メタデータ) (2020-11-07T01:46:53Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。