論文の概要: Gender mobility in the labor market with skills-based matching models
- arxiv url: http://arxiv.org/abs/2307.08368v1
- Date: Mon, 17 Jul 2023 10:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 13:55:41.552659
- Title: Gender mobility in the labor market with skills-based matching models
- Title(参考訳): スキルベースマッチングモデルを用いた労働市場のジェンダーモビリティ
- Authors: Ajaya Adhikari, Steven Vethman, Daan Vos, Marc Lenz, Ioana Cocu,
Ioannis Tolios, Cor J. Veenman
- Abstract要約: 本研究は,言語モデルに基づく職業のスキル表現における性差別の存在を示す。
スキルベースのマッチング手法が,性差別のリスクだけでなく,マッチング性能についても評価・比較できることを示す。
- 参考スコア(独自算出の注目度): 0.06927055673104934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skills-based matching promises mobility of workers between different sectors
and occupations in the labor market. In this case, job seekers can look for
jobs they do not yet have experience in, but for which they do have relevant
skills. Currently, there are multiple occupations with a skewed gender
distribution. For skills-based matching, it is unclear if and how a shift in
the gender distribution, which we call gender mobility, between occupations
will be effected. It is expected that the skills-based matching approach will
likely be data-driven, including computational language models and supervised
learning methods.
This work, first, shows the presence of gender segregation in language
model-based skills representation of occupations. Second, we assess the use of
these representations in a potential application based on simulated data, and
show that the gender segregation is propagated by various data-driven
skills-based matching models.These models are based on different language
representations (bag of words, word2vec, and BERT), and distance metrics
(static and machine learning-based). Accordingly, we show how skills-based
matching approaches can be evaluated and compared on matching performance as
well as on the risk of gender segregation. Making the gender segregation bias
of models more explicit can help in generating healthy trust in the use of
these models in practice.
- Abstract(参考訳): スキルベースのマッチングは、労働市場の異なる部門と職業間の労働者の移動を約束する。
この場合、求職者は、まだ経験のない仕事を探すことができる。
現在、男女分布が歪んだ職業が複数存在する。
スキルベースのマッチングでは、職業間での性移動と呼ばれる性別の分布の変化が、どのように影響するかは不明だ。
スキルベースのマッチングアプローチは,計算言語モデルや教師付き学習手法など,データ駆動のアプローチが期待されている。
この研究は、まず、職業の言語モデルに基づくスキル表現における男女分離の存在を示す。
第2に、シミュレーションデータに基づく潜在的なアプリケーションにおけるこれらの表現の使用を評価し、様々なデータ駆動型スキルベースマッチングモデルにより性別分離が伝播していることを示し、これらのモデルは異なる言語表現(単語、ワード2vec、BERTのバッグ)と距離メトリクス(静的および機械学習ベース)に基づいている。
そこで本研究では, スキルベースのマッチングアプローチが, 男女の分別リスクだけでなく, パフォーマンスも比較できることを示す。
モデルの男女分離バイアスをより明確にすることは、これらのモデルの使用に対する健全な信頼を生み出すのに役立つ。
関連論文リスト
- Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Vision-Language Models Performing Zero-Shot Tasks Exhibit Gender-based
Disparities [19.03751960721954]
ゼロショット視覚言語モデルが、異なる視覚タスクに対してジェンダーバイアスを示す範囲について検討する。
概念の集合にまたがって複数のデータセットを持つ異なる視覚言語モデルを評価する。
論文 参考訳(メタデータ) (2023-01-26T13:44:31Z) - Exploring Gender Bias in Retrieval Models [2.594412743115663]
情報検索におけるジェンダーバイアスの緩和は,ステレオタイプの普及を避けるために重要である。
本研究では,(1)クエリに対するドキュメントの関連性,(2)ドキュメントの“ジェンダー”という2つのコンポーネントからなるデータセットを用いる。
我々は,大容量のBERTエンコーダの完全微調整を行う場合,IRの事前学習モデルはゼロショット検索タスクではうまく動作しないことを示す。
また、事前学習されたモデルには性別バイアスがあり、検索された記事は女性よりも男性が多い傾向にあることを示した。
論文 参考訳(メタデータ) (2022-08-02T21:12:05Z) - The Birth of Bias: A case study on the evolution of gender bias in an
English language model [1.6344851071810076]
私たちは、英語のウィキペディアコーパスでトレーニングされたLSTMアーキテクチャを使って、比較的小さな言語モデルを使用します。
性別の表現は動的であり、訓練中に異なる位相を識別する。
モデルの入力埋め込みにおいて,ジェンダー情報が局所的に表現されることが示される。
論文 参考訳(メタデータ) (2022-07-21T00:59:04Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Gendered Language in Resumes and its Implications for Algorithmic Bias
in Hiring [0.0]
我々は応募者の性別を分類するために一連のモデルを訓練する。
我々は、履歴書から性別を難読化できるかどうか検討する。
難読化後も履歴書には男女情報が多く存在することが判明した。
論文 参考訳(メタデータ) (2021-12-16T14:26:36Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。