論文の概要: Leveraging Large Language Models for Career Mobility Analysis: A Study of Gender, Race, and Job Change Using U.S. Online Resume Profiles
- arxiv url: http://arxiv.org/abs/2511.12010v1
- Date: Sat, 15 Nov 2025 03:26:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.503645
- Title: Leveraging Large Language Models for Career Mobility Analysis: A Study of Gender, Race, and Job Change Using U.S. Online Resume Profiles
- Title(参考訳): キャリアモビリティ分析のための大規模言語モデルの活用--米国のオンライン求人プロフィールを用いたジェンダー, 人種, 職業変化に関する研究
- Authors: Palakorn Achananuparp, Connie Xu, Yao Lu, Xavier Jayaraj Siddarth Ashok, Ee-Peng Lim,
- Abstract要約: 本稿では,大学生のキャリアモビリティの大規模分析について述べる。
我々は、ジェンダー、人種、仕事の変化オプションが上向きのモビリティとどのように関連しているかを検討する。
- 参考スコア(独自算出の注目度): 15.31824043202434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a large-scale analysis of career mobility of college-educated U.S. workers using online resume profiles to investigate how gender, race, and job change options are associated with upward mobility. This study addresses key research questions of how the job changes affect their upward career mobility, and how the outcomes of upward career mobility differ by gender and race. We address data challenges -- such as missing demographic attributes, missing wage data, and noisy occupation labels -- through various data processing and Artificial Intelligence (AI) methods. In particular, we develop a large language models (LLMs) based occupation classification method known as FewSOC that achieves accuracy significantly higher than the original occupation labels in the resume dataset. Analysis of 228,710 career trajectories reveals that intra-firm occupation change has been found to facilitate upward mobility most strongly, followed by inter-firm occupation change and inter-firm lateral move. Women and Black college graduates experience significantly lower returns from job changes than men and White peers. Multilevel sensitivity analyses confirm that these disparities are robust to cluster-level heterogeneity and reveal additional intersectional patterns.
- Abstract(参考訳): 本稿では,大学教員のキャリアモビリティをオンライン履歴書プロフィールを用いて大規模に分析し,ジェンダー,人種,職業変化の選択肢が上向きモビリティとどのように関連しているかについて検討する。
本研究は,仕事の変化が上向きのキャリアモビリティに与える影響や,上向きのキャリアモビリティの結果がジェンダーや人種によってどのように異なるかという重要な研究課題に対処する。
さまざまなデータ処理と人工知能(AI)手法を通じて、人口統計特性の欠如、賃金データ不足、ノイズの多い職業ラベルなどのデータ課題に対処する。
特に,大規模な言語モデル(LLM)に基づく職業分類手法FewSOCを開発した。
228,710件のキャリアトラジェクトリの分析から, 高いモビリティ向上に最も寄与することが確認された。
女性と黒人の大学卒業生は、男性や白人と比べて、仕事の変化によるリターンが著しく低い。
多レベル感度解析は、これらの格差がクラスタレベルの不均一性に対して堅牢であることを確認し、追加の交叉パターンを明らかにする。
関連論文リスト
- Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment [49.81946749379338]
この研究は、トランスフォーマーベースのシステムの能力を分析して、データに存在する人口統計バイアスを学習する。
最終ツールにおける偏りを緩和する手段として,学習パイプラインからの性別情報を削減するためのプライバシー向上フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T15:29:43Z) - JobHop: A Large-Scale Dataset of Career Trajectories [43.84577100931558]
ジョブホップ(JobHop)は、ベルギーのフランドルにある公共雇用サービスVDABが提供する匿名の履歴書から派生した大規模なパブリックデータセットである。
構造化されていない履歴データを処理し、構造化された経歴情報を抽出し、標準化された ESCO の職業コードに正規化する。
この結果、361,000人以上の履歴書から抽出され、グループ化された166万以上の作業経験の豊富なデータセットが得られた。
論文 参考訳(メタデータ) (2025-05-12T15:22:29Z) - Who Gets the Callback? Generative AI and Gender Bias [0.030693357740321777]
大規模言語モデル(LLM)は特に高賃金の役割において男性を好む傾向にある。
求人広告における言語的特徴の包括的分析は、モデルレコメンデーションと伝統的なジェンダーステレオタイプとの強い整合性を示す。
我々の調査結果は、AIによる雇用が労働市場のバイアスを持続させ、企業内の公正性と多様性に影響を及ぼす可能性があることを強調している。
論文 参考訳(メタデータ) (2025-04-30T07:55:52Z) - Small Changes, Large Consequences: Analyzing the Allocational Fairness of LLMs in Hiring Contexts [19.20592062296075]
大規模言語モデル(LLM)は、採用のような高度なアプリケーションにますますデプロイされている。
本研究は、実際の人事利用を反映した2つのタスクを通して、LLMベースの採用システムの割当公平性を検討する。
論文 参考訳(メタデータ) (2025-01-08T07:28:10Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。