論文の概要: Gender Bias in Generative AI-assisted Recruitment Processes
- arxiv url: http://arxiv.org/abs/2603.11736v1
- Date: Thu, 12 Mar 2026 09:42:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.000894
- Title: Gender Bias in Generative AI-assisted Recruitment Processes
- Title(参考訳): ジェネレーティブAIによるリクルートプロセスにおけるジェンダーバイアス
- Authors: Martina Ullasci, Marco Rondina, Riccardo Coppola, Antonio Vetrò,
- Abstract要約: 本稿では,35歳未満のイタリア人卒業生を対象に,ジェンダーと職場経験の背景から,最先端の世代モデル(GPT-5)がいかに職業を示唆するかを考察する。
このモデルは、性別、年齢、経験、専門分野のバランスのとれた24のシミュレーションされた候補者プロファイルにジョブを提案するよう促されている。
女性や男性の候補者による形容詞に性的な言語パターンが出現し、モデルが女性と感情的・共感的な特徴を関連付ける傾向が示唆された。
- 参考スコア(独自算出の注目度): 1.6566053195631467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, generative artificial intelligence (GenAI) systems have assumed increasingly crucial roles in selection processes, personnel recruitment and analysis of candidates' profiles. However, the employment of large language models (LLMs) risks reproducing, and in some cases amplifying, gender stereotypes and bias already present in the labour market. The objective of this paper is to evaluate and measure this phenomenon, analysing how a state-of-the-art generative model (GPT-5) suggests occupations based on gender and work experience background, focusing on under-35-year-old Italian graduates. The model has been prompted to suggest jobs to 24 simulated candidate profiles, which are balanced in terms of gender, age, experience and professional field. Although no significant differences emerged in job titles and industry, gendered linguistic patterns emerged in the adjectives attributed to female and male candidates, indicating a tendency of the model to associate women with emotional and empathetic traits, while men with strategic and analytical ones. The research raises an ethical question regarding the use of these models in sensitive processes, highlighting the need for transparency and fairness in future digital labour markets.
- Abstract(参考訳): 近年、生成人工知能(GenAI)システムは、選抜プロセス、人材募集、候補者のプロファイルの分析において、ますます重要な役割を担っている。
しかし、大きな言語モデル(LLM)の雇用は、労働市場にすでに存在している、男女のステレオタイプや偏見を増幅するリスクを再現する。
本研究の目的は、35歳未満のイタリア人卒業生を対象に、ジェンダーと職場経験に基づく職業の実態を、最先端の世代モデル(GPT-5)がいかに示唆するかを分析し、この現象を評価し、評価することである。
このモデルは、性別、年齢、経験、専門分野のバランスのとれた24のシミュレーションされた候補者プロファイルにジョブを提案するよう促されている。
職名や業界に有意差はなかったが、女性や男性の候補者による形容詞に性的な言語パターンが出現し、モデルが女性を感情的・共感的特性に関連付ける傾向を示し、男性は戦略的・分析的特徴を持つ傾向を示した。
この研究は、これらのモデルをセンシティブなプロセスで使用することについて倫理的な疑問を提起し、将来のデジタル労働市場における透明性と公正性の必要性を強調している。
関連論文リスト
- Mitigation of Gender and Ethnicity Bias in AI-Generated Stories through Model Explanations [2.86989372262348]
言語モデルは、特に性別と民族の表現において、そのアウトプットを通じて社会的偏見を伝播させることが示されている。
本稿では,AIが生み出す職業物語におけるジェンダーと民族のバイアスについて検討する。
提案した緩和戦略であるバイアス分析と説明による緩和(BAME)は,2%から20%の範囲の人口表現の改善を明らかにする。
論文 参考訳(メタデータ) (2025-09-03T00:25:25Z) - Who Gets the Callback? Generative AI and Gender Bias [0.030693357740321777]
大規模言語モデル(LLM)は特に高賃金の役割において男性を好む傾向にある。
求人広告における言語的特徴の包括的分析は、モデルレコメンデーションと伝統的なジェンダーステレオタイプとの強い整合性を示す。
我々の調査結果は、AIによる雇用が労働市場のバイアスを持続させ、企業内の公正性と多様性に影響を及ぼす可能性があることを強調している。
論文 参考訳(メタデータ) (2025-04-30T07:55:52Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、デバイアス化と性能維持の最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Generalizing Fairness to Generative Language Models via Reformulation of Non-discrimination Criteria [4.738231680800414]
本稿では、生成言語モデルにおけるジェンダーバイアスの存在を解明し、定量化する方法について研究する。
我々は、独立性、分離性、充足性という3つのよく知られた非識別基準のジェネレーティブAIアナログを導出する。
本研究は,このような対話型言語モデルにおける職業性バイアスの存在に対処するものである。
論文 参考訳(メタデータ) (2024-03-13T14:19:08Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。