論文の概要: Data-Driven Analysis of Gender Fairness in the Software Engineering
Academic Landscape
- arxiv url: http://arxiv.org/abs/2309.11239v1
- Date: Wed, 20 Sep 2023 12:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 12:58:22.306125
- Title: Data-Driven Analysis of Gender Fairness in the Software Engineering
Academic Landscape
- Title(参考訳): ソフトウェア工学のランドスケープにおけるジェンダーフェアネスのデータ駆動分析
- Authors: Giordano d'Aloisio, Andrea D'Angelo, Francesca Marzi, Diana Di Marco,
Giovanni Stilo, and Antinisca Di Marco
- Abstract要約: 本研究では,情報学(INF)およびソフトウェア工学(SE)イタリアのコミュニティにおける,学術的昇進におけるジェンダーバイアスの問題について検討する。
我々はまず,学界におけるジェンダーバイアスの問題がこれまでどのように対処されてきたかを評価するために文献レビューを実施している。
次に、イタリアの学術振興におけるジェンダーバイアスの分析に必要なINFとSEデータを収集・前処理するプロセスについて述べる。
実施した分析から,SEコミュニティが助教授への昇進のバイアスが高いこと,全教授への昇進のバイアスがINFコミュニティ全体と比較して小さいことを観察した。
- 参考スコア(独自算出の注目度): 4.580653005421453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender bias in education gained considerable relevance in the literature over
the years. However, while the problem of gender bias in education has been
widely addressed from a student perspective, it is still not fully analysed
from an academic point of view. In this work, we study the problem of gender
bias in academic promotions (i.e., from Researcher to Associated Professor and
from Associated to Full Professor) in the informatics (INF) and software
engineering (SE) Italian communities. In particular, we first conduct a
literature review to assess how the problem of gender bias in academia has been
addressed so far. Next, we describe a process to collect and preprocess the INF
and SE data needed to analyse gender bias in Italian academic promotions.
Subsequently, we apply a formal bias metric to these data to assess the amount
of bias and look at its variation over time. From the conducted analysis, we
observe how the SE community presents a higher bias in promotions to Associate
Professors and a smaller bias in promotions to Full Professors compared to the
overall INF community.
- Abstract(参考訳): 教育におけるジェンダーバイアスは、長年にわたって文学に大きく関係した。
しかし、教育におけるジェンダーバイアスの問題は、学生の視点からは広く取り上げられているが、学術的な観点からは完全には分析されていない。
本研究では,情報化(INF)とソフトウェア工学(SE)イタリアのコミュニティにおいて,学術的昇進におけるジェンダーバイアスの問題(研究者からAssociated Professor,Associated Professor)について検討する。
特に,学界におけるジェンダーバイアスの問題がこれまでどのように対処されてきたかを評価するため,文献レビューを行った。
次に,イタリア学術振興におけるジェンダーバイアスの分析に必要なinfおよびseデータを収集・処理するプロセスについて述べる。
次に,これらのデータに形式的バイアスメトリックを適用し,バイアスの量を評価し,その経時変化を考察する。
実施した分析から,SEコミュニティが助教授への昇進のバイアスが高いこと,全教授への昇進のバイアスがINFコミュニティ全体と比較して小さいことを観察した。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Towards Region-aware Bias Evaluation Metrics [26.91545185271231]
性別バイアスの地域差を同定し,バイアス評価のための地域別ボトムアップアプローチを提案する。
提案手法は,ある地域におけるジェンダー・アライメント・トピックを使用し,トピック・ペアの形でジェンダー・バイアス・ディメンションを識別する。
提案するバイアストピックペアのいくつかは、既存のものと比較して、これらの領域における性別バイアスに対する人間の認識に匹敵するものである。
論文 参考訳(メタデータ) (2024-06-23T16:26:27Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Gender Bias in Big Data Analysis [0.0]
性別予測ソフトウェアツールが歴史的ビッグデータ研究で使用されるとき、性別バイアスを測定する。
性別バイアスは、よく認識されたDBLPデータセットにおいて、個人が特定したコンピュータサイエンスの著者と対比することによって測定される。
論文 参考訳(メタデータ) (2022-11-17T20:13:04Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Assessing Gender Bias in the Information Systems Field: An Analysis of
the Impact on Citations [0.0]
本稿では,女性IS学者が男性同僚にvis-a-visを蓄積する学術的引用の影響を推定する研究の概要を述べる。
そこで我々は,学界における男女偏見の中核的な側面に関する知識の提供を提案する。
論文 参考訳(メタデータ) (2021-08-22T18:18:52Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。