論文の概要: Gender Gap in Natural Language Processing Research: Disparities in
Authorship and Citations
- arxiv url: http://arxiv.org/abs/2005.00962v2
- Date: Thu, 3 Sep 2020 20:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 06:51:49.088174
- Title: Gender Gap in Natural Language Processing Research: Disparities in
Authorship and Citations
- Title(参考訳): 自然言語処理研究におけるジェンダーギャップ:オーサシップとサイテーションの差異
- Authors: Saif M. Mohammad
- Abstract要約: 最初の著者の約29%が女性であり、最後の著者の約25%が女性である。
平均的に、女性ファースト作家は、経験と研究領域を制御している場合でも、男性ファースト作家より少ない引用がなされている。
- 参考スコア(独自算出の注目度): 31.87319293259599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disparities in authorship and citations across gender can have substantial
adverse consequences not just on the disadvantaged genders, but also on the
field of study as a whole. Measuring gender gaps is a crucial step towards
addressing them. In this work, we examine female first author percentages and
the citations to their papers in Natural Language Processing (1965 to 2019). We
determine aggregate-level statistics using an existing manually curated
author--gender list as well as first names strongly associated with a gender.
We find that only about 29% of first authors are female and only about 25% of
last authors are female. Notably, this percentage has not improved since the
mid 2000s. We also show that, on average, female first authors are cited less
than male first authors, even when controlling for experience and area of
research. Finally, we discuss the ethical considerations involved in automatic
demographic analysis.
- Abstract(参考訳): 性別間の著者や引用の相違は、不利な性別だけでなく、全体としての研究分野にも重大な影響をもたらす可能性がある。
ジェンダーギャップの測定は、それらに対処するための重要なステップである。
本研究では,女性第一著者の割合と自然言語処理における論文に対する引用について検討する(1965年~2019年)。
我々は、既存の手作業による書き手リストと、性別に強く関連付けられたファーストネームを用いて、集計レベル統計を決定する。
最初の著者の約29%が女性であり、最後の著者の約25%が女性であることがわかった。
この割合は2000年代半ばから改善されていない。
また, 経験や研究領域をコントロールしても, 平均的に女性第一著者は男性第一著者より少ないという結果が得られた。
最後に,自動人口分析に関わる倫理的考察について論じる。
関連論文リスト
- Evaluating Gender Bias in Large Language Models [0.8636148452563583]
本研究では,大規模言語モデル (LLMs) が職業文脈における代名詞選択における性別バイアスの程度について検討した。
対象とする職業は、男性に有意な存在感を持つものから女性に有意な集中力を持つものまで幅広い。
その結果, モデルの代名詞選択と, 労働力データに存在する性別分布との間には, 正の相関関係が認められた。
論文 参考訳(メタデータ) (2024-11-14T22:23:13Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - Voices of Her: Analyzing Gender Differences in the AI Publication World [26.702520904075044]
我々は、AI分野における78K研究者のAI Scholarデータセットを用いて、いくつかの性別差を同定する。
女性第一著者の論文は、より長い文章、よりポジティブな感情の言葉、よりキャッチーなタイトルなど、異なる言語スタイルを示している。
私たちの分析は、私たちのAIコミュニティにおける現在の人口統計トレンドの窓口を提供し、将来、より多くの男女平等と多様性を奨励します。
論文 参考訳(メタデータ) (2023-05-24T00:40:49Z) - Temporal Analysis and Gender Bias in Computing [0.0]
何十年にもわたって性別が変わる「レスリー問題」
この記事では、1925-1975年に測定可能な「ジェンダーシフト」を持つ300の与えられた名前を特定する。
この記事は、数十年前の女性の過多(および男性の過小評価)を招きかねない「女性シフト」が存在することを定量的に示している。
論文 参考訳(メタデータ) (2022-09-29T00:29:43Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Investigating writing style as a contributor to gender gaps in science and technology [0.0]
文章のスタイルは性別によって大きく異なり、女性はより関連性のある特徴を用いている。
より関連性の高い論文や特許も女性によって引用される傾向にある。
以上の結果から, 科学的テキストは人格を欠くものではないことが示唆され, 評価のバイアスに寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2022-04-28T22:33:36Z) - The effect of the COVID-19 pandemic on gendered research productivity
and its correlates [0.0]
本研究では,2020年の学術誌における女性作家の割合が,世界規模でどのように変化したかを検討した。
女性研究者の生産性は2020年に低下し、主に最初の著者として、そして最後に著者の地位が低下した。
女性研究者は必ずしも除外されたわけではないが、研究において限界が与えられた。
論文 参考訳(メタデータ) (2021-11-29T06:20:44Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。