論文の概要: Subfield prestige and gender inequality in computing
- arxiv url: http://arxiv.org/abs/2201.00254v2
- Date: Mon, 9 May 2022 19:28:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 17:14:48.281810
- Title: Subfield prestige and gender inequality in computing
- Title(参考訳): 計算におけるサブフィールドの威信と性不平等
- Authors: Nicholas LaBerge, K. Hunter Wapman, Allison C. Morgan, Sam Zhang,
Daniel B. Larremore, and Aaron Clauset
- Abstract要約: 女性や有色人種は、計算学部の中では著しく過小評価されている。
効果的な多様化戦略は、分野における多様性の相関、原因、傾向の定量化に依存する。
サブフィールド採用のダイナミクスは、典型的にはサブフィールドレベルにあるため、サブフィールド雇用のダイナミクスによって駆動される。
- 参考スコア(独自算出の注目度): 1.1545092788508224
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Women and people of color remain dramatically underrepresented among
computing faculty, and improvements in demographic diversity are slow and
uneven. Effective diversification strategies depend on quantifying the
correlates, causes, and trends of diversity in the field. But field-level
demographic changes are driven by subfield hiring dynamics because faculty
searches are typically at the subfield level. Here, we quantify and forecast
variations in the demographic composition of the subfields of computing using a
comprehensive database of training and employment records for 6882 tenure-track
faculty from 269 PhD-granting computing departments in the United States,
linked with 327,969 publications. We find that subfield prestige correlates
with gender inequality, such that faculty working in computing subfields with
more women tend to hold positions at less prestigious institutions. In
contrast, we find no significant evidence of racial or socioeconomic
differences by subfield. Tracking representation over time, we find steady
progress toward gender equality in all subfields, but more prestigious
subfields tend to be roughly 25 years behind the less prestigious subfields in
gender representation. These results illustrate how the choice of subfield in a
faculty search can shape a department's gender diversity.
- Abstract(参考訳): コンピュータ学部では、女性や有色人種が著しく不足しており、人口多様性の改善は遅く、不均一である。
効果的な多様化戦略は、分野における多様性の相関、原因、傾向の定量化に依存する。
しかし、学部レベルの人口変動は、典型的にはサブフィールドレベルにあるため、サブフィールド採用のダイナミクスによって引き起こされる。
ここでは、米国の269のPhDグラッティングコンピューティング部門から6882の受講生のトレーニング記録と雇用記録の総合データベースを用いて、計算サブフィールドの人口構成の変動を定量化し、予測する。
サブフィールドの権威は性別の不平等と相関しており、より女性が多いサブフィールドで働く学部は、より権威の低い機関で職に就く傾向がある。
対照的に、サブフィールドによる人種的・社会経済的差異の顕著な証拠は見つからない。
時間の経過とともに、すべてのサブフィールドにおける男女平等に向けて着実に進展するが、より名高いサブフィールドは、性別表現において名度の低いサブフィールドよりも約25年遅れている傾向がある。
これらの結果は, 学部検索におけるサブフィールドの選択が, 学部の性多様性をどのように形成するかを示す。
関連論文リスト
- The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Diversity dilemmas: uncovering gender and nationality biases in graduate
admissions across top North American computer science programs [0.0]
入学プロセスにおいて,学生の性別や国籍が優先されているかを検討する。
研究グループへの入学には男女差は認められなかったが,学生の国籍にもとづく偏見がみられた。
論文 参考訳(メタデータ) (2023-02-01T17:02:08Z) - Dynamics of Gender Bias in Computing [0.0]
本稿では、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブな年月(1950-1980)に焦点を当てた新しいデータセットを提示する。
1960年代から1970年代にかけてのコンピュータ科学の専門化において、コンピューティングにおける性バイアスが出現したとの予想が再燃した。
論文 参考訳(メタデータ) (2022-11-07T23:29:56Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Assessing Gender Bias in the Information Systems Field: An Analysis of
the Impact on Citations [0.0]
本稿では,女性IS学者が男性同僚にvis-a-visを蓄積する学術的引用の影響を推定する研究の概要を述べる。
そこで我々は,学界における男女偏見の中核的な側面に関する知識の提供を提案する。
論文 参考訳(メタデータ) (2021-08-22T18:18:52Z) - Implicit Gender Bias in Computer Science -- A Qualitative Study [3.158346511479111]
テックセクターにおけるジェンダーの多様性は、男女のバランスの取れた比率を作るのに十分である。
多くの女性にとって、コンピュータ科学へのアクセスは社会化、社会的、文化的、構造的な障害によって妨げられている。
コンピュータ科学の分野における接触の欠如は、潜在的な関心を発展または拡大させることを困難にしている。
論文 参考訳(メタデータ) (2021-07-04T13:30:26Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。