論文の概要: Dynamics of Gender Bias in Computing
- arxiv url: http://arxiv.org/abs/2211.03905v1
- Date: Mon, 7 Nov 2022 23:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:18:21.218197
- Title: Dynamics of Gender Bias in Computing
- Title(参考訳): コンピューティングにおけるジェンダーバイアスのダイナミクス
- Authors: Thomas J Misa
- Abstract要約: 本稿では、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブな年月(1950-1980)に焦点を当てた新しいデータセットを提示する。
1960年代から1970年代にかけてのコンピュータ科学の専門化において、コンピューティングにおける性バイアスが出現したとの予想が再燃した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gender bias in computing is a hard problem that has resisted decades of
research. One obstacle has been the absence of systematic data that might
indicate when gender bias emerged in computing and how it has changed. This
article presents a new dataset (N=50,000) focusing on formative years of
computing as a profession (1950-1980) when U.S. government workforce statistics
are thin or non-existent. This longitudinal dataset, based on archival records
from six computer user groups (SHARE, USE, and others) and ACM conference
attendees and membership rosters, revises commonly held conjectures that gender
bias in computing emerged during professionalization of computer science in the
1960s or 1970s and that there was a 'linear' one-time onset of gender bias to
the present. Such a linear view also lent support to the "pipeline" model of
computing's "losing" women at successive career stages. Instead, this dataset
reveals three distinct periods of gender bias in computing and so invites
temporally distinct explanations for these changing dynamics. It significantly
revises both scholarly assessment and popular understanding about gender bias
in computing. It also draws attention to diversity within computing. One
consequence of this research for CS reform efforts today is data-driven
recognition that legacies of gender bias beginning in the mid-1980s (not in
earlier decades) is the problem. A second consequence is correcting the public
image of computer science: this research shows that gender bias is a contingent
aspect of professional computing, not an intrinsic or permanent one.
- Abstract(参考訳): コンピューティングにおけるジェンダーバイアスは、何十年もの研究に抵抗してきた難しい問題である。
1つの障害は、コンピューティングにおいて性別バイアスが出現し、どのように変化したかを示す体系的なデータがないことである。
本稿は、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブなコンピューティングの年月(1950-1980)に焦点を当てた新しいデータセット(N=50,000)を提示する。
この時系列データセットは、6つのコンピュータユーザグループ(SHARE、USEなど)とACMカンファレンスの出席者および会員ロースターからのアーカイブ記録に基づいており、1960年代から1970年代にかけてコンピュータサイエンスの専門化中にコンピューティングにおける性バイアスが出現し、現在までの「線形」1回の性バイアスの出現が予想されている。
このようなリニアな見方は、連続したキャリアステージにおいてコンピューティングの「失う」女性の「パイプライン」モデルを支持した。
代わりに、このデータセットは、コンピューティングにおける性バイアスの3つの異なる期間を明らかにする。
これは、コンピュータにおけるジェンダーバイアスに関する学術的評価と一般理解の両方を著しく改訂する。
また、コンピューティングにおける多様性にも注目が集まる。
今日のCS改革の取り組みにおけるこの研究の結果は、1980年代半ば(数十年前)に始まった性バイアスの正当性が問題である、というデータ駆動認識である。
第二の結果は、コンピュータ科学の公開イメージの修正である。この研究は、性差はプロのコンピューティングにおいて、本質的あるいは恒久的なものではなく、重要な側面であることを示している。
関連論文リスト
- Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Gender Bias in Big Data Analysis [0.0]
性別予測ソフトウェアツールが歴史的ビッグデータ研究で使用されるとき、性別バイアスを測定する。
性別バイアスは、よく認識されたDBLPデータセットにおいて、個人が特定したコンピュータサイエンスの著者と対比することによって測定される。
論文 参考訳(メタデータ) (2022-11-17T20:13:04Z) - Gender Bias in Computing [0.0]
1970年代に米国国勢調査データが利用可能になる前に、コンピューティングの労働力に関する新しい定量的データを提供している。
1950年代からのコンピューティングにおける男女の参加を推定するために,ジェンダー分析の新しい手法が開発されている。
論文 参考訳(メタデータ) (2022-10-29T00:10:25Z) - Temporal Analysis and Gender Bias in Computing [0.0]
何十年にもわたって性別が変わる「レスリー問題」
この記事では、1925-1975年に測定可能な「ジェンダーシフト」を持つ300の与えられた名前を特定する。
この記事は、数十年前の女性の過多(および男性の過小評価)を招きかねない「女性シフト」が存在することを定量的に示している。
論文 参考訳(メタデータ) (2022-09-29T00:29:43Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Assessing Gender Bias in the Information Systems Field: An Analysis of
the Impact on Citations [0.0]
本稿では,女性IS学者が男性同僚にvis-a-visを蓄積する学術的引用の影響を推定する研究の概要を述べる。
そこで我々は,学界における男女偏見の中核的な側面に関する知識の提供を提案する。
論文 参考訳(メタデータ) (2021-08-22T18:18:52Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。