論文の概要: She Elicits Requirements and He Tests: Software Engineering Gender Bias
in Large Language Models
- arxiv url: http://arxiv.org/abs/2303.10131v1
- Date: Fri, 17 Mar 2023 17:16:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 13:38:18.091004
- Title: She Elicits Requirements and He Tests: Software Engineering Gender Bias
in Large Language Models
- Title(参考訳): 彼女は要求とテストを取り除き:大規模言語モデルにおけるソフトウェア工学のジェンダーバイアス
- Authors: Christoph Treude, Hideaki Hata
- Abstract要約: 本研究では、データマイニング技術を用いて、ソフトウェア開発タスクが暗黙の性別バイアスによってどの程度影響を受けるかを調べる。
我々は、各タスクを英語からジェンダーレス言語に翻訳し、各タスクに関連する代名詞を調査する。
具体的には、要件付与は6%のケースで"he"に関連付けられ、テストは100%のケースで"he"に関連していた。
- 参考スコア(独自算出の注目度): 17.837267486473415
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Implicit gender bias in software development is a well-documented issue, such
as the association of technical roles with men. To address this bias, it is
important to understand it in more detail. This study uses data mining
techniques to investigate the extent to which 56 tasks related to software
development, such as assigning GitHub issues and testing, are affected by
implicit gender bias embedded in large language models. We systematically
translated each task from English into a genderless language and back, and
investigated the pronouns associated with each task. Based on translating each
task 100 times in different permutations, we identify a significant disparity
in the gendered pronoun associations with different tasks. Specifically,
requirements elicitation was associated with the pronoun "he" in only 6% of
cases, while testing was associated with "he" in 100% of cases. Additionally,
tasks related to helping others had a 91% association with "he" while the same
association for tasks related to asking coworkers was only 52%. These findings
reveal a clear pattern of gender bias related to software development tasks and
have important implications for addressing this issue both in the training of
large language models and in broader society.
- Abstract(参考訳): ソフトウェア開発における性的偏見は、男性との技術的な役割の関連など、文書化された問題である。
このバイアスに対処するためには、より詳細に理解することが重要です。
本研究では,データマイニング手法を用いて,大規模言語モデルに埋め込まれた暗黙のジェンダーバイアスによって,githubイシューの割り当てやテストなど,ソフトウェア開発に関連する56のタスクがどの程度影響を受けるかを検討する。
我々は,各タスクを英語からジェンダーレス言語に体系的に翻訳し,各タスクに関連する代名詞を調査した。
それぞれのタスクを異なる順に100回翻訳することで、異なるタスクの性別付き代名詞関係における大きな相違を識別する。
具体的には、要件の明確化は「he」の代名詞にわずか6%で関連し、テストは100%のケースで「he」に関連していた。
また、他人を助けるタスクは「彼」と91%の関連があり、同僚への質問に関連するタスクの関連は52%に過ぎなかった。
これらの結果は、ソフトウェア開発タスクに関連する性別バイアスの明確なパターンを明らかにし、大きな言語モデルの訓練と幅広い社会においてこの問題に対処するために重要な意味を持つ。
関連論文リスト
- The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - INCLUSIFY: A benchmark and a model for gender-inclusive German [0.0]
ジェンダーインクルージョン言語はジェンダーインフレクションを持つ言語においてジェンダー平等を達成するために重要である。
ジェンダーを包含する言語の使用を支援するために、いくつかのツールが開発されている。
ベンチマークのためのデータセットと尺度を示し、これらのタスクを実装するモデルを示す。
論文 参考訳(メタデータ) (2022-12-05T19:37:48Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Gendered Language in Resumes and its Implications for Algorithmic Bias
in Hiring [0.0]
我々は応募者の性別を分類するために一連のモデルを訓練する。
我々は、履歴書から性別を難読化できるかどうか検討する。
難読化後も履歴書には男女情報が多く存在することが判明した。
論文 参考訳(メタデータ) (2021-12-16T14:26:36Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Type B Reflexivization as an Unambiguous Testbed for Multilingual
Multi-Task Gender Bias [5.239305978984572]
我々は,B型回帰型言語の場合,性別バイアスを検出するためにマルチタスクチャレンジデータセットを構築することができることを示した。
これらの言語では「医者がマスクを取り除いた」という直訳は中音読みと不一致読みのあいまいさではない。
4つの言語と4つのNLPタスクにまたがる多言語・マルチタスク課題データセットを提案する。
論文 参考訳(メタデータ) (2020-09-24T23:47:18Z) - Mitigating Gender Bias in Machine Learning Data Sets [5.075506385456811]
ジェンダーバイアスは雇用広告や採用ツールの文脈で特定されている。
本稿では,機械学習のためのトレーニングデータにおける性別バイアスの同定のための枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-14T12:06:02Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。