論文の概要: Subfield prestige and gender inequality in computing
- arxiv url: http://arxiv.org/abs/2201.00254v2
- Date: Mon, 9 May 2022 19:28:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 17:14:48.281810
- Title: Subfield prestige and gender inequality in computing
- Title(参考訳): 計算におけるサブフィールドの威信と性不平等
- Authors: Nicholas LaBerge, K. Hunter Wapman, Allison C. Morgan, Sam Zhang,
Daniel B. Larremore, and Aaron Clauset
- Abstract要約: 女性や有色人種は、計算学部の中では著しく過小評価されている。
効果的な多様化戦略は、分野における多様性の相関、原因、傾向の定量化に依存する。
サブフィールド採用のダイナミクスは、典型的にはサブフィールドレベルにあるため、サブフィールド雇用のダイナミクスによって駆動される。
- 参考スコア(独自算出の注目度): 1.1545092788508224
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Women and people of color remain dramatically underrepresented among
computing faculty, and improvements in demographic diversity are slow and
uneven. Effective diversification strategies depend on quantifying the
correlates, causes, and trends of diversity in the field. But field-level
demographic changes are driven by subfield hiring dynamics because faculty
searches are typically at the subfield level. Here, we quantify and forecast
variations in the demographic composition of the subfields of computing using a
comprehensive database of training and employment records for 6882 tenure-track
faculty from 269 PhD-granting computing departments in the United States,
linked with 327,969 publications. We find that subfield prestige correlates
with gender inequality, such that faculty working in computing subfields with
more women tend to hold positions at less prestigious institutions. In
contrast, we find no significant evidence of racial or socioeconomic
differences by subfield. Tracking representation over time, we find steady
progress toward gender equality in all subfields, but more prestigious
subfields tend to be roughly 25 years behind the less prestigious subfields in
gender representation. These results illustrate how the choice of subfield in a
faculty search can shape a department's gender diversity.
- Abstract(参考訳): コンピュータ学部では、女性や有色人種が著しく不足しており、人口多様性の改善は遅く、不均一である。
効果的な多様化戦略は、分野における多様性の相関、原因、傾向の定量化に依存する。
しかし、学部レベルの人口変動は、典型的にはサブフィールドレベルにあるため、サブフィールド採用のダイナミクスによって引き起こされる。
ここでは、米国の269のPhDグラッティングコンピューティング部門から6882の受講生のトレーニング記録と雇用記録の総合データベースを用いて、計算サブフィールドの人口構成の変動を定量化し、予測する。
サブフィールドの権威は性別の不平等と相関しており、より女性が多いサブフィールドで働く学部は、より権威の低い機関で職に就く傾向がある。
対照的に、サブフィールドによる人種的・社会経済的差異の顕著な証拠は見つからない。
時間の経過とともに、すべてのサブフィールドにおける男女平等に向けて着実に進展するが、より名高いサブフィールドは、性別表現において名度の低いサブフィールドよりも約25年遅れている傾向がある。
これらの結果は, 学部検索におけるサブフィールドの選択が, 学部の性多様性をどのように形成するかを示す。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - Diversity dilemmas: uncovering gender and nationality biases in graduate
admissions across top North American computer science programs [0.0]
入学プロセスにおいて,学生の性別や国籍が優先されているかを検討する。
研究グループへの入学には男女差は認められなかったが,学生の国籍にもとづく偏見がみられた。
論文 参考訳(メタデータ) (2023-02-01T17:02:08Z) - Dynamics of Gender Bias in Computing [0.0]
本稿では、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブな年月(1950-1980)に焦点を当てた新しいデータセットを提示する。
1960年代から1970年代にかけてのコンピュータ科学の専門化において、コンピューティングにおける性バイアスが出現したとの予想が再燃した。
論文 参考訳(メタデータ) (2022-11-07T23:29:56Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Assessing Gender Bias in the Information Systems Field: An Analysis of
the Impact on Citations [0.0]
本稿では,女性IS学者が男性同僚にvis-a-visを蓄積する学術的引用の影響を推定する研究の概要を述べる。
そこで我々は,学界における男女偏見の中核的な側面に関する知識の提供を提案する。
論文 参考訳(メタデータ) (2021-08-22T18:18:52Z) - Implicit Gender Bias in Computer Science -- A Qualitative Study [3.158346511479111]
テックセクターにおけるジェンダーの多様性は、男女のバランスの取れた比率を作るのに十分である。
多くの女性にとって、コンピュータ科学へのアクセスは社会化、社会的、文化的、構造的な障害によって妨げられている。
コンピュータ科学の分野における接触の欠如は、潜在的な関心を発展または拡大させることを困難にしている。
論文 参考訳(メタデータ) (2021-07-04T13:30:26Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。