論文の概要: Temporal Analysis and Gender Bias in Computing
- arxiv url: http://arxiv.org/abs/2210.08983v1
- Date: Thu, 29 Sep 2022 00:29:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-02-19 11:47:28.469418
- Title: Temporal Analysis and Gender Bias in Computing
- Title(参考訳): コンピューティングにおける時間解析とジェンダーバイアス
- Authors: Thomas J. Misa
- Abstract要約: 何十年にもわたって性別が変わる「レスリー問題」
この記事では、1925-1975年に測定可能な「ジェンダーシフト」を持つ300の与えられた名前を特定する。
この記事は、数十年前の女性の過多(および男性の過小評価)を招きかねない「女性シフト」が存在することを定量的に示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent studies of gender bias in computing use large datasets involving
automatic predictions of gender to analyze computing publications, conferences,
and other key populations. Gender bias is partly defined by software-driven
algorithmic analysis, but widely used gender prediction tools can result in
unacknowledged gender bias when used for historical research. Many names change
ascribed gender over decades: the "Leslie problem." Systematic analysis of the
Social Security Administration dataset -- each year, all given names,
identified by ascribed gender and frequency of use -- in 1900, 1925, 1950,
1975, and 2000 permits a rigorous assessment of the "Leslie problem." This
article identifies 300 given names with measurable "gender shifts" across
1925-1975, spotlighting the 50 given names with the largest such shifts. This
article demonstrates, quantitatively, there is net "female shift" that likely
results in the overcounting of women (and undercounting of men) in earlier
decades, just as computer science was professionalizing. Some aspects of the
widely accepted 'making programming masculine' perspective may need revision.
- Abstract(参考訳): 最近のコンピューティングにおけるジェンダーバイアスの研究では、性別の自動予測を含む大規模なデータセットを使用して、出版物、会議、その他の主要な人口を分析している。
ジェンダーバイアスは、部分的にソフトウェア駆動のアルゴリズム分析によって定義されるが、広く使われている性別予測ツールは、歴史的研究に使用される際には、未認識の性別バイアスをもたらす可能性がある。
何十年もの間、多くの名前が性別を変えてきた:「レスリー問題」である。
1900年、1925年、1950年、1975年、2000年における社会保障局のデータセットの体系的な分析は、「レスリー問題」の厳密な評価を許可している。
この記事では、1925-1975年に計測可能な「ジェンダーシフト」を持つ300個の名前を特定し、最も大きなシフトを持つ50個の名前に注目する。
この記事は、コンピュータ科学が専門化しているように、数十年前の女性の過多(および男性の過小評価)につながるであろう「女性シフト」が定量的に示している。
広く受け入れられている「プログラミング男性」の観点のいくつかの側面は、修正が必要であるかもしれない。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Beyond Binary Gender Labels: Revealing Gender Biases in LLMs through Gender-Neutral Name Predictions [5.896505047270243]
我々は、大きな言語モデルにおける潜在的な性バイアスについて研究し、対処するために、さらにジェンダーカテゴリー、すなわち「中立」を導入する。
性別予測の精度を高めるために出生年を増やすことの影響について検討する。
論文 参考訳(メタデータ) (2024-07-07T05:59:09Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - MISGENDERED: Limits of Large Language Models in Understanding Pronouns [46.276320374441056]
我々は、英語のジェンダーニュートラル代名詞を正しく活用する能力について、人気言語モデルの評価を行った。
提案するMISGENDEREDは,大言語モデルが好む代名詞を正しく活用する能力を評価するためのフレームワークである。
論文 参考訳(メタデータ) (2023-06-06T18:27:52Z) - Gender Bias in Big Data Analysis [0.0]
性別予測ソフトウェアツールが歴史的ビッグデータ研究で使用されるとき、性別バイアスを測定する。
性別バイアスは、よく認識されたDBLPデータセットにおいて、個人が特定したコンピュータサイエンスの著者と対比することによって測定される。
論文 参考訳(メタデータ) (2022-11-17T20:13:04Z) - Dynamics of Gender Bias in Computing [0.0]
本稿では、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブな年月(1950-1980)に焦点を当てた新しいデータセットを提示する。
1960年代から1970年代にかけてのコンピュータ科学の専門化において、コンピューティングにおける性バイアスが出現したとの予想が再燃した。
論文 参考訳(メタデータ) (2022-11-07T23:29:56Z) - Gender Bias in Computing [0.0]
1970年代に米国国勢調査データが利用可能になる前に、コンピューティングの労働力に関する新しい定量的データを提供している。
1950年代からのコンピューティングにおける男女の参加を推定するために,ジェンダー分析の新しい手法が開発されている。
論文 参考訳(メタデータ) (2022-10-29T00:10:25Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Theories of "Gender" in NLP Bias Research [0.0]
NLPにおけるジェンダーバイアスに関する200近い記事を調査した。
記事の大多数は、性別に関する理論を明示していない。
多くの人は、トランス、ノンバイナリ、インターセックスの人々の存在と経験を無視した方法で、性の特徴、社会的性別、言語性について説明している。
論文 参考訳(メタデータ) (2022-05-05T09:20:53Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。