論文の概要: The Resume Paradox: Greater Language Differences, Smaller Pay Gaps
- arxiv url: http://arxiv.org/abs/2307.08580v1
- Date: Mon, 17 Jul 2023 15:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:39:38.784917
- Title: The Resume Paradox: Greater Language Differences, Smaller Pay Gaps
- Title(参考訳): Resume Paradox: より優れた言語差とより小さな支払いギャップ
- Authors: Joshua R. Minot, Marc Maier, Bradford Demarest, Nicholas Cheney,
Christopher M. Danforth, Peter Sheridan Dodds, and Morgan R. Frank
- Abstract要約: 我々は、この言葉を何百万人ものアメリカ人労働者の履歴書で分析し、労働者のジェンダーによる自己表現の違いが、収入の違いとどのように比較されるかを調べる。
米国の職業全体において、男女間の言語の違いは男女の賃金格差の11%に相当する。
男女間の言語差が2倍になれば、平均的な女性労働者の年収は2797ドルになる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decade, the gender pay gap has remained steady with women
earning 84 cents for every dollar earned by men on average. Many studies
explain this gap through demand-side bias in the labor market represented
through employers' job postings. However, few studies analyze potential bias
from the worker supply-side. Here, we analyze the language in millions of US
workers' resumes to investigate how differences in workers' self-representation
by gender compare to differences in earnings. Across US occupations, language
differences between male and female resumes correspond to 11% of the variation
in gender pay gap. This suggests that females' resumes that are semantically
similar to males' resumes may have greater wage parity. However, surprisingly,
occupations with greater language differences between male and female resumes
have lower gender pay gaps. A doubling of the language difference between
female and male resumes results in an annual wage increase of $2,797 for the
average female worker. This result holds with controls for gender-biases of
resume text and we find that per-word bias poorly describes the variance in
wage gap. The results demonstrate that textual data and self-representation are
valuable factors for improving worker representations and understanding
employment inequities.
- Abstract(参考訳): 過去10年間、男女の賃金格差は着実に推移しており、女性は男性の平均の1ドル当たり84セントを稼いでいる。
多くの研究は、雇用主の求職によって表される労働市場の需要側バイアスを通じてこのギャップを説明する。
しかし、労働者供給側からの潜在的なバイアスを分析する研究はほとんどない。
本稿では、数百万人の米国労働者の履歴書の言語を分析し、性別による労働者の自己表現の違いと利益の差を比較した。
米国の職業全体において、男女間の言語の違いは男女の賃金格差の11%に相当する。
これは、男性の履歴書と意味的に類似している女性の履歴書の方が賃金格差が大きいことを示唆している。
しかし驚くべきことに、男女の履歴書の言語差が大きい職業は、男女の賃金格差が小さい。
女性と男性の言語の違いを2倍にすると、平均的な女性労働者の年間賃金は2,797ドル上昇する。
この結果は、履歴文のジェンダー・ビアーゼの制御を伴い、単語毎の偏差が賃金格差のばらつきをあまり記述しないことが判明した。
その結果,テキストデータと自己表現は,労働者表現の改善と雇用不平等の理解に有用であることが示唆された。
関連論文リスト
- Evaluating Gender Bias in Large Language Models [0.8636148452563583]
本研究では,大規模言語モデル (LLMs) が職業文脈における代名詞選択における性別バイアスの程度について検討した。
対象とする職業は、男性に有意な存在感を持つものから女性に有意な集中力を持つものまで幅広い。
その結果, モデルの代名詞選択と, 労働力データに存在する性別分布との間には, 正の相関関係が認められた。
論文 参考訳(メタデータ) (2024-11-14T22:23:13Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Exploring the Impact of Training Data Distribution and Subword
Tokenization on Gender Bias in Machine Translation [19.719314005149883]
機械翻訳における性別バイアスに対するトークン化の効果について検討する。
職業名の女性および非ステレオタイプ性差は、サブワードトークンに分割される傾向にある。
その結果, 単語分割の分析は, トレーニングデータにおける性別形態の不均衡の予測に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-09-21T21:21:55Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Professional Presentation and Projected Power: A Case Study of Implicit
Gender Information in English CVs [8.947168670095326]
本稿では,男女のCVにおけるスキルと背景のフレーミングについて検討する。
我々は、米国から1.8Kの正当性、英語、CVのデータセットを導入し、16の職業をカバーした。
論文 参考訳(メタデータ) (2022-11-17T23:26:52Z) - Closing the Gender Wage Gap: Adversarial Fairness in Job Recommendation [10.227479910430866]
本研究は、求職者の履歴書に基づいて、偏見のない求職勧告を提供することで、既存の男女賃金格差を緩和することを目的とする。
12万件の求人テキストと900万件の履歴書のWord2vec表現から、性別バイアスを除去するために、生成的対人ネットワークを用いている。
論文 参考訳(メタデータ) (2022-09-20T10:11:40Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - How to Measure Gender Bias in Machine Translation: Optimal Translators,
Multiple Reference Points [0.0]
我々は、ジェンダーニュートラルな代名詞を持つ言語であるハンガリー語から、職業名を含む文を英語に翻訳する。
本研究の目的は, 翻訳を最適な非バイアス翻訳者と比較することにより, バイアスの公平な尺度を提示することであった。
その結果、両性に偏りが認められたが、女性に偏った結果の方がはるかに多いことが判明した。
論文 参考訳(メタデータ) (2020-11-12T15:39:22Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。