論文の概要: The Resume Paradox: Greater Language Differences, Smaller Pay Gaps
- arxiv url: http://arxiv.org/abs/2307.08580v1
- Date: Mon, 17 Jul 2023 15:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:39:38.784917
- Title: The Resume Paradox: Greater Language Differences, Smaller Pay Gaps
- Title(参考訳): Resume Paradox: より優れた言語差とより小さな支払いギャップ
- Authors: Joshua R. Minot, Marc Maier, Bradford Demarest, Nicholas Cheney,
Christopher M. Danforth, Peter Sheridan Dodds, and Morgan R. Frank
- Abstract要約: 我々は、この言葉を何百万人ものアメリカ人労働者の履歴書で分析し、労働者のジェンダーによる自己表現の違いが、収入の違いとどのように比較されるかを調べる。
米国の職業全体において、男女間の言語の違いは男女の賃金格差の11%に相当する。
男女間の言語差が2倍になれば、平均的な女性労働者の年収は2797ドルになる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decade, the gender pay gap has remained steady with women
earning 84 cents for every dollar earned by men on average. Many studies
explain this gap through demand-side bias in the labor market represented
through employers' job postings. However, few studies analyze potential bias
from the worker supply-side. Here, we analyze the language in millions of US
workers' resumes to investigate how differences in workers' self-representation
by gender compare to differences in earnings. Across US occupations, language
differences between male and female resumes correspond to 11% of the variation
in gender pay gap. This suggests that females' resumes that are semantically
similar to males' resumes may have greater wage parity. However, surprisingly,
occupations with greater language differences between male and female resumes
have lower gender pay gaps. A doubling of the language difference between
female and male resumes results in an annual wage increase of $2,797 for the
average female worker. This result holds with controls for gender-biases of
resume text and we find that per-word bias poorly describes the variance in
wage gap. The results demonstrate that textual data and self-representation are
valuable factors for improving worker representations and understanding
employment inequities.
- Abstract(参考訳): 過去10年間、男女の賃金格差は着実に推移しており、女性は男性の平均の1ドル当たり84セントを稼いでいる。
多くの研究は、雇用主の求職によって表される労働市場の需要側バイアスを通じてこのギャップを説明する。
しかし、労働者供給側からの潜在的なバイアスを分析する研究はほとんどない。
本稿では、数百万人の米国労働者の履歴書の言語を分析し、性別による労働者の自己表現の違いと利益の差を比較した。
米国の職業全体において、男女間の言語の違いは男女の賃金格差の11%に相当する。
これは、男性の履歴書と意味的に類似している女性の履歴書の方が賃金格差が大きいことを示唆している。
しかし驚くべきことに、男女の履歴書の言語差が大きい職業は、男女の賃金格差が小さい。
女性と男性の言語の違いを2倍にすると、平均的な女性労働者の年間賃金は2,797ドル上昇する。
この結果は、履歴文のジェンダー・ビアーゼの制御を伴い、単語毎の偏差が賃金格差のばらつきをあまり記述しないことが判明した。
その結果,テキストデータと自己表現は,労働者表現の改善と雇用不平等の理解に有用であることが示唆された。
関連論文リスト
- Exploring the Impact of Training Data Distribution and Subword
Tokenization on Gender Bias in Machine Translation [19.719314005149883]
機械翻訳における性別バイアスに対するトークン化の効果について検討する。
職業名の女性および非ステレオタイプ性差は、サブワードトークンに分割される傾向にある。
その結果, 単語分割の分析は, トレーニングデータにおける性別形態の不均衡の予測に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-09-21T21:21:55Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z) - Professional Presentation and Projected Power: A Case Study of Implicit
Gender Information in English CVs [8.947168670095326]
本稿では,男女のCVにおけるスキルと背景のフレーミングについて検討する。
我々は、米国から1.8Kの正当性、英語、CVのデータセットを導入し、16の職業をカバーした。
論文 参考訳(メタデータ) (2022-11-17T23:26:52Z) - Closing the Gender Wage Gap: Adversarial Fairness in Job Recommendation [10.227479910430866]
本研究は、求職者の履歴書に基づいて、偏見のない求職勧告を提供することで、既存の男女賃金格差を緩和することを目的とする。
12万件の求人テキストと900万件の履歴書のWord2vec表現から、性別バイアスを除去するために、生成的対人ネットワークを用いている。
論文 参考訳(メタデータ) (2022-09-20T10:11:40Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Gendered Language in Resumes and its Implications for Algorithmic Bias
in Hiring [0.0]
我々は応募者の性別を分類するために一連のモデルを訓練する。
我々は、履歴書から性別を難読化できるかどうか検討する。
難読化後も履歴書には男女情報が多く存在することが判明した。
論文 参考訳(メタデータ) (2021-12-16T14:26:36Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - How to Measure Gender Bias in Machine Translation: Optimal Translators,
Multiple Reference Points [0.0]
我々は、ジェンダーニュートラルな代名詞を持つ言語であるハンガリー語から、職業名を含む文を英語に翻訳する。
本研究の目的は, 翻訳を最適な非バイアス翻訳者と比較することにより, バイアスの公平な尺度を提示することであった。
その結果、両性に偏りが認められたが、女性に偏った結果の方がはるかに多いことが判明した。
論文 参考訳(メタデータ) (2020-11-12T15:39:22Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。