論文の概要: Can Large Language Model Predict Employee Attrition?
- arxiv url: http://arxiv.org/abs/2411.01353v1
- Date: Sat, 02 Nov 2024 19:50:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:47:09.191068
- Title: Can Large Language Model Predict Employee Attrition?
- Title(参考訳): 大規模言語モデルは従業員の誘惑を予測することができるか?
- Authors: Xiaoye Ma, Weiheng Liu, Changyi Zhao, Liliya R. Tukhvatulina,
- Abstract要約: 本研究では,GPT-3.5モデルの予測精度と解釈可能性について,従来の機械学習(ML)と比較した。
GPT-3.5の精度は0.91、リコールは0.94、F1スコアは0.92、SVMはF1スコアは0.82、ランダムフォレストとXGBoostは0.80である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Employee attrition poses significant costs for organizations, with traditional statistical prediction methods often struggling to capture modern workforce complexities. Machine learning (ML) advancements offer more scalable and accurate solutions, but large language models (LLMs) introduce new potential in human resource management by interpreting nuanced employee communication and detecting subtle turnover cues. This study leverages the IBM HR Analytics Attrition dataset to compare the predictive accuracy and interpretability of a fine-tuned GPT-3.5 model against traditional ML classifiers, including Logistic Regression, k-Nearest Neighbors (KNN), Support Vector Machine (SVM), Decision Tree, Random Forest, AdaBoost, and XGBoost. While traditional models are easier to use and interpret, LLMs can reveal deeper patterns in employee behavior. Our findings show that the fine-tuned GPT-3.5 model outperforms traditional methods with a precision of 0.91, recall of 0.94, and an F1-score of 0.92, while the best traditional model, SVM, achieved an F1-score of 0.82, with Random Forest and XGBoost reaching 0.80. These results highlight GPT-3.5's ability to capture complex patterns in attrition risk, offering organizations improved insights for retention strategies and underscoring the value of LLMs in HR applications.
- Abstract(参考訳): 従業員の誘惑は組織にとって大きなコストとなり、伝統的な統計予測手法は、しばしば現代の労働の複雑さを捉えるのに苦労する。
機械学習(ML)の進歩は、よりスケーラブルで正確なソリューションを提供するが、大規模言語モデル(LLM)は、ニュアンスな従業員コミュニケーションを解釈し、微妙なターンオーバーキューを検出することによって、人的資源管理に新たな可能性をもたらす。
本研究は、IBM HR Analytics Attritionデータセットを用いて、ロジスティック回帰、k-Nearest Neighbors(KNN)、サポートベクトルマシン(SVM)、決定木、ランダムフォレスト、AdaBoost、XGBoostを含む従来のML分類器と比較して、微調整GPT-3.5モデルの予測精度と解釈可能性を比較する。
従来のモデルは使いやすく、解釈しやすいが、LLMは従業員の行動のより深いパターンを明らかにすることができる。
GPT-3.5の精度は0.91、リコールは0.94、F1スコアは0.92、SVMはF1スコアは0.82、ランダムフォレストとXGBoostは0.80である。
これらの結果は,誘惑リスクの複雑なパターンをキャプチャするGPT-3.5の能力を強調し,組織が保持戦略の洞察を改善し,HRアプリケーションにおけるLLMの価値を強調した。
関連論文リスト
- Predictor-Corrector Enhanced Transformers with Exponential Moving Average Coefficient Learning [73.73967342609603]
トラクションエラーを最小限に抑えるための予測-相関学習フレームワークを提案する。
また、高次予測器を強化するために、指数関数的移動平均ベース係数学習法を提案する。
我々のモデルは3.8BのDeepNetを平均2.9のSacreBLEUで上回り、1/3のパラメータしか使用していない。
論文 参考訳(メタデータ) (2024-11-05T12:26:25Z) - Enhancing Retail Sales Forecasting with Optimized Machine Learning Models [0.0]
小売売上高予測では、在庫管理と戦略的計画にとって、将来の売上を正確に予測することが不可欠である。
機械学習(ML)の最近の進歩は、より堅牢な代替手段を提供する。
この研究はML、特にランダムフォレスト(RF)、グラディエントブースティング(GB)、サポートベクター回帰(SVR)、XGBoostの力の恩恵を受けている。
論文 参考訳(メタデータ) (2024-10-17T17:11:33Z) - Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能評価のためのより効率的な指標として、事前学習損失に焦点を当てている。
我々は、データソース間のFLOPに基づいて、ドメイン固有の事前学習損失を予測するために、電力法解析関数を拡張した。
我々は2層ニューラルネットワークを用いて、複数のドメイン固有の損失と下流性能の非線形関係をモデル化する。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Unlocking the Potential of Model Merging for Low-Resource Languages [66.7716891808697]
大規模言語モデルを新しい言語に適応させるには、通常、継続事前訓練(CT)と、教師付き微調整(SFT)が含まれる。
我々は低リソース言語の代替としてモデルマージを提案し、異なる機能を持つモデルを追加トレーニングなしで単一のモデルに組み合わせる。
Llama-2-7Bをベースとした実験により、モデルマージはタスク解決能力の低い低リソース言語に対して、極めて少ないデータを持つシナリオにおいて、CT-then-SFTよりも優れていることが実証された。
論文 参考訳(メタデータ) (2024-07-04T15:14:17Z) - Let's Predict Who Will Move to a New Job [0.0]
機械学習を使って、誰が新しい仕事に移行するかを予測する方法について論じる。
データはMLモデルに適したフォーマットに前処理される。
モデルは、精度、リコール、F1スコア、精度などの意思決定支援メトリクスを使用して評価される。
論文 参考訳(メタデータ) (2023-09-15T11:43:09Z) - Scaling Relationship on Learning Mathematical Reasoning with Large
Language Models [75.29595679428105]
本研究では,事前学習損失,教師付きデータ量,拡張データ量が教師付きLDMの推論性能に与える影響について検討する。
複数のモデルからの拒絶サンプルは、LLaMA-7BをGSM8Kの49.3%の精度に押し上げ、監督された微調整(SFT)の精度を35.9%上回る結果となった。
論文 参考訳(メタデータ) (2023-08-03T15:34:01Z) - Chain-of-Thought Hub: A Continuous Effort to Measure Large Language
Models' Reasoning Performance [35.38549845444575]
Chain-of-Thought Hubは、大規模な言語モデルの多段階推論機能に関するオープンソースの評価スイートである。
提案するChain-of-Thought Hubは,大規模言語モデルの多段階推論機能に関するオープンソース評価スイートである。
論文 参考訳(メタデータ) (2023-05-26T23:46:42Z) - Prompting GPT-3 To Be Reliable [117.23966502293796]
この研究は信頼性を一般化可能性、公平性、校正性、事実性という4つの側面に分解する。
GPT-3はこれらすべての面において,より小型の教師付きモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-17T14:52:39Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Surrogate Locally-Interpretable Models with Supervised Machine Learning
Algorithms [8.949704905866888]
近年,従来の統計的手法よりも予測性能が優れているため,機械学習アルゴリズムが普及している。
主な焦点は解釈可能性であり、結果として得られるサロゲートモデルは、合理的に優れた予測性能を持つ。
論文 参考訳(メタデータ) (2020-07-28T23:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。