論文の概要: Relating Word Embedding Gender Biases to Gender Gaps: A Cross-Cultural Analysis
- arxiv url: http://arxiv.org/abs/2601.17203v1
- Date: Fri, 23 Jan 2026 22:18:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.414046
- Title: Relating Word Embedding Gender Biases to Gender Gaps: A Cross-Cultural Analysis
- Title(参考訳): ジェンダー・バイアーズのジェンダー・ギャップに関する単語埋め込み:クロスカルチャー分析
- Authors: Scott Friedman, Sonja Schmer-Galunder, Anthony Chen, Jeffrey Rye,
- Abstract要約: 本稿では,単語埋め込みにおけるジェンダーバイアスの定量化手法を提案する。
次に、これらの指標を使用して、教育、政治、経済学、健康における統計的男女格差を特徴づけます。
これらの指標は、米国51か国と99か国にまたがる2018年のTwitterデータで検証します。
- 参考スコア(独自算出の注目度): 6.057865461877989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern models for common NLP tasks often employ machine learning techniques and train on journalistic, social media, or other culturally-derived text. These have recently been scrutinized for racial and gender biases, rooting from inherent bias in their training text. These biases are often sub-optimal and recent work poses methods to rectify them; however, these biases may shed light on actual racial or gender gaps in the culture(s) that produced the training text, thereby helping us understand cultural context through big data. This paper presents an approach for quantifying gender bias in word embeddings, and then using them to characterize statistical gender gaps in education, politics, economics, and health. We validate these metrics on 2018 Twitter data spanning 51 U.S. regions and 99 countries. We correlate state and country word embedding biases with 18 international and 5 U.S.-based statistical gender gaps, characterizing regularities and predictive strength.
- Abstract(参考訳): 一般的なNLPタスクの現代的なモデルは、しばしば機械学習技術を使用し、ジャーナリスト、ソーシャルメディア、その他の文化的に派生したテキストで訓練する。
これらは最近、人種的偏見とジェンダー的偏見について精査されている。
これらのバイアスは、しばしば準最適であり、最近の研究はそれらを修正するための方法を示しているが、これらのバイアスは、トレーニングテキストを生成する文化における実際の人種的またはジェンダー的ギャップを軽視し、ビッグデータを通じて文化的な文脈を理解するのに役立つかもしれない。
本稿では,単語埋め込みにおけるジェンダーバイアスを定量化し,それを用いて教育,政治,経済,健康における統計的ジェンダーギャップを特徴づけるアプローチを提案する。
これらの指標は、米国51か国と99か国にまたがる2018年のTwitterデータで検証します。
我々は、国語と国語の埋め込みバイアスを、18の国際的および5つの米国ベースの性別格差と相関させ、正規性と予測強度を特徴づける。
関連論文リスト
- Gender Inequality in English Textbooks Around the World: an NLP Approach [0.0]
本研究では,7つの文化圏にまたがる22カ国の英語教科書において,ジェンダー不平等を定量化する自然言語処理手法を適用した。
指標には、文字数、第一性(性別が最初に言及される)、TF-IDF単語の関連がある。
結果は、数、優先性、名前付き実体という観点から、男性文字の一貫性のある過剰表現を示す。
論文 参考訳(メタデータ) (2025-06-03T04:16:09Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora [9.959039325564744]
大規模言語モデル(LLM)は、しばしば、トレーニングデータに埋め込まれた社会的バイアスを継承し、増幅する。
性バイアスとは、特定の役割や特性と特定の性別の関連性である。
ジェンダー表現バイアスは、性別の異なる個人への参照の不平等な頻度である。
論文 参考訳(メタデータ) (2024-06-19T16:30:58Z) - ''Fifty Shades of Bias'': Normative Ratings of Gender Bias in GPT
Generated English Text [11.085070600065801]
言語は、社会的信念システムの顕在化のための強力なツールとして機能する。
ジェンダーバイアスは、私たちの社会でもっとも普及しているバイアスの1つです。
我々は、GPT生成した英語テキストの最初のデータセットを作成し、男女バイアスの規範的評価を行う。
論文 参考訳(メタデータ) (2023-10-26T14:34:06Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Efficient Gender Debiasing of Pre-trained Indic Language Models [0.0]
言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
本稿では,ヒンディー語モデルにおける職業に関する性別バイアスを測定した。
以上の結果から,提案手法の適応後のバイアスが低減されることが示唆された。
論文 参考訳(メタデータ) (2022-09-08T09:15:58Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。