論文の概要: Gender Bias in Computing
- arxiv url: http://arxiv.org/abs/2210.16449v1
- Date: Sat, 29 Oct 2022 00:10:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:07:09.151005
- Title: Gender Bias in Computing
- Title(参考訳): コンピューティングにおけるジェンダーバイアス
- Authors: Thomas J. Misa
- Abstract要約: 1970年代に米国国勢調査データが利用可能になる前に、コンピューティングの労働力に関する新しい定量的データを提供している。
1950年代からのコンピューティングにおける男女の参加を推定するために,ジェンダー分析の新しい手法が開発されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper examines the historical dimension of gender bias in the US
computing workforce. It offers new quantitative data on the computing workforce
prior to the availability of US Census data in the 1970s. Computer user groups
(including SHARE, Inc., and the Mark IV software user group) are taken as a
cross-section of the computing workforce. A novel method of gender analysis is
developed to estimate women's and men's participation in computing beginning in
the 1950s. The data presented here are consistent with well-known NSF
statistics that show computer science undergraduate programs enrolling
increasing numbers of women students during 1965-1985. These findings challenge
the 'making programming masculine' thesis, and serve to correct the
unrealistically high figures often cited for women's participation in early
computer programming. Gender bias in computing today is traced not to 1960s
professionalization but to cultural changes in the 1980s and beyond.
- Abstract(参考訳): 本稿では,アメリカの計算労働力におけるジェンダーバイアスの歴史的次元について検討する。
1970年代の国勢調査データが登場する前に、コンピューティングの労働力に関する新しい量的データを提供する。
コンピュータユーザグループ(SHARE, Inc. や Mark IV ソフトウェアユーザグループを含む)は、コンピュータ労働者のクロスセクションとして扱われる。
1950年代以降の計算における男女の参加を推定するために, ジェンダー分析の新しい手法が開発された。
このデータは、1965-1985年の女子学生の増加をコンピュータサイエンスの学部生プログラムに示す有名なNSF統計と一致している。
これらの発見は「プログラミングの男性」の論文に挑戦し、初期のコンピュータプログラミングに女性の参加にしばしば言及される非現実的に高い数値を正すのに役立つ。
今日のコンピューティングにおけるジェンダーバイアスは、1960年代の専門化ではなく、1980年代以降の文化的変化にさかのぼる。
関連論文リスト
- Dynamics of Gender Bias within Computer Science [0.0]
ACM SIGは1970年から2000年にかけて拡大し、それぞれが女性作家を増やした。
いくつかのSIGには10%未満の女性作家がおり、SIGUCCSは40%を超えた。
3つのSIGは女性作家の成長を加速させ、ACMを含むほとんどが成長を加速させた。
論文 参考訳(メタデータ) (2024-07-11T00:14:21Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - Gender Bias in Big Data Analysis [0.0]
性別予測ソフトウェアツールが歴史的ビッグデータ研究で使用されるとき、性別バイアスを測定する。
性別バイアスは、よく認識されたDBLPデータセットにおいて、個人が特定したコンピュータサイエンスの著者と対比することによって測定される。
論文 参考訳(メタデータ) (2022-11-17T20:13:04Z) - Dynamics of Gender Bias in Computing [0.0]
本稿では、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブな年月(1950-1980)に焦点を当てた新しいデータセットを提示する。
1960年代から1970年代にかけてのコンピュータ科学の専門化において、コンピューティングにおける性バイアスが出現したとの予想が再燃した。
論文 参考訳(メタデータ) (2022-11-07T23:29:56Z) - Temporal Analysis and Gender Bias in Computing [0.0]
何十年にもわたって性別が変わる「レスリー問題」
この記事では、1925-1975年に測定可能な「ジェンダーシフト」を持つ300の与えられた名前を特定する。
この記事は、数十年前の女性の過多(および男性の過小評価)を招きかねない「女性シフト」が存在することを定量的に示している。
論文 参考訳(メタデータ) (2022-09-29T00:29:43Z) - Gender Representation in Brazilian Computer Science Conferences [0.6961253535504979]
本研究は,1999年から2021年までのブラジルコンピュータ科学会(SBC)会議において,6569件の学術論文の自動書誌分析を行った。
性別の体系的な課題を23.573紙の著者名に応用し,女性の性別格差が重要であることを確認した。
論文 参考訳(メタデータ) (2022-08-23T15:10:10Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。