論文の概要: Gender Bias in Big Data Analysis
- arxiv url: http://arxiv.org/abs/2211.09865v1
- Date: Thu, 17 Nov 2022 20:13:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:30:39.886249
- Title: Gender Bias in Big Data Analysis
- Title(参考訳): ビッグデータ分析におけるジェンダーバイアス
- Authors: Thomas J. Misa
- Abstract要約: 性別予測ソフトウェアツールが歴史的ビッグデータ研究で使用されるとき、性別バイアスを測定する。
性別バイアスは、よく認識されたDBLPデータセットにおいて、個人が特定したコンピュータサイエンスの著者と対比することによって測定される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This article combines humanistic "data critique" with informed inspection of
big data analysis. It measures gender bias when gender prediction software
tools (Gender API, Namsor, and Genderize.io) are used in historical big data
research. Gender bias is measured by contrasting personally identified computer
science authors in the well-regarded DBLP dataset (1950-1980) with exactly
comparable results from the software tools. Implications for public
understanding of gender bias in computing and the nature of the computing
profession are outlined. Preliminary assessment of the Semantic Scholar dataset
is presented. The conclusion combines humanistic approaches with selective use
of big data methods.
- Abstract(参考訳): 本稿では,人文主義的「データ批判」とビッグデータ分析のインフォームドインスペクションを組み合わせる。
性別予測ソフトウェアツール(Gender API、Namsor、Genderize.io)が歴史的ビッグデータ研究に使用される場合、性別バイアスを測定する。
ジェンダーバイアスは、よく認識されたDBLPデータセット(1950-1980)において、個人が特定したコンピュータサイエンスの著者と、ソフトウェアツールの正確な結果との対比によって測定される。
コンピューティングにおけるジェンダーバイアスの公的な理解と、コンピューティングの専門職の性質について概説する。
セマンティックスカラーデータセットの予備評価について述べる。
この結論は、人道主義的なアプローチとビッグデータ手法の選択的な利用を組み合わせたものである。
関連論文リスト
- The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Dynamics of Gender Bias in Computing [0.0]
本稿では、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブな年月(1950-1980)に焦点を当てた新しいデータセットを提示する。
1960年代から1970年代にかけてのコンピュータ科学の専門化において、コンピューティングにおける性バイアスが出現したとの予想が再燃した。
論文 参考訳(メタデータ) (2022-11-07T23:29:56Z) - Evaluating Gender Bias in Natural Language Inference [5.034017602990175]
推論による自然言語理解における性別バイアスの評価手法を提案する。
チャレンジタスクを使用して、職業を用いたジェンダーステレオタイプの存在に関する最先端のNLIモデルを調査します。
その結果,mnliとsnliデータセットでトレーニングされた3モデルでは,性別による予測誤差が有意に高いことが示唆された。
論文 参考訳(メタデータ) (2021-05-12T09:41:51Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Mitigating Gender Bias in Machine Learning Data Sets [5.075506385456811]
ジェンダーバイアスは雇用広告や採用ツールの文脈で特定されている。
本稿では,機械学習のためのトレーニングデータにおける性別バイアスの同定のための枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-14T12:06:02Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。