論文の概要: Augmented Fine-Tuned LLMs for Enhanced Recruitment Automation
- arxiv url: http://arxiv.org/abs/2509.06196v1
- Date: Sun, 07 Sep 2025 20:18:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.898724
- Title: Augmented Fine-Tuned LLMs for Enhanced Recruitment Automation
- Title(参考訳): 改良されたリクルート自動化のための微調整LDM
- Authors: Mohamed T. Younes, Omar Walid, Khaled Shaban, Ali Hamdi, Mai Hassan,
- Abstract要約: 大規模言語モデル(LLM)は精度と効率を向上させるために微調整された。
システムは標準化されたフォーマットを使用する合成データセットを作成する。
Phy-4は90.62%という最高スコアを達成し、採用作業における例外的な精度とリコールを示している。
- 参考スコア(独自算出の注目度): 0.4349640169711269
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel approach to recruitment automation. Large Language Models (LLMs) were fine-tuned to improve accuracy and efficiency. Building upon our previous work on the Multilayer Large Language Model-Based Robotic Process Automation Applicant Tracking (MLAR) system . This work introduces a novel methodology. Training fine-tuned LLMs specifically tuned for recruitment tasks. The proposed framework addresses the limitations of generic LLMs by creating a synthetic dataset that uses a standardized JSON format. This helps ensure consistency and scalability. In addition to the synthetic data set, the resumes were parsed using DeepSeek, a high-parameter LLM. The resumes were parsed into the same structured JSON format and placed in the training set. This will help improve data diversity and realism. Through experimentation, we demonstrate significant improvements in performance metrics, such as exact match, F1 score, BLEU score, ROUGE score, and overall similarity compared to base models and other state-of-the-art LLMs. In particular, the fine-tuned Phi-4 model achieved the highest F1 score of 90.62%, indicating exceptional precision and recall in recruitment tasks. This study highlights the potential of fine-tuned LLMs. Furthermore, it will revolutionize recruitment workflows by providing more accurate candidate-job matching.
- Abstract(参考訳): 本稿では,採用自動化への新たなアプローチを提案する。
大規模言語モデル(LLM)は精度と効率を向上させるために微調整された。
MLAR(Multilayer Large Language Model-based Robotic Process Automation Applicant Tracking)システムについて述べる。
この研究は、新しい方法論を紹介します。
微調整のLLMを訓練し、採用作業用に特別に調整した。
提案したフレームワークは、標準化されたJSONフォーマットを使用する合成データセットを作成することで、ジェネリックLLMの制限に対処する。
これは一貫性とスケーラビリティを保証するのに役立ちます。
合成データセットに加えて、履歴書は高パラメータLCMであるDeepSeekを用いて解析された。
履歴書は、同じ構造化されたJSONフォーマットに解析され、トレーニングセットに配置された。
これにより、データの多様性とリアリズムが向上する。
実験により, 正確な一致, F1スコア, BLEUスコア, ROUGEスコア, およびベースモデルや他の最先端LCMと比較して総合的な類似性など, 性能指標の大幅な改善が示された。
特に、微調整されたPhi-4は90.62%のF1スコアを獲得し、採用作業における例外的な精度とリコールを示している。
本研究は, 微調整LDMの可能性を明らかにする。
さらに、より正確な候補ジョブマッチングを提供することで、採用ワークフローに革命をもたらす。
関連論文リスト
- SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Application of LLM Agents in Recruitment: A Novel Framework for Resume Screening [0.0]
本稿では,新しいLarge Language Models (LLM) ベースのエージェントフレームワークについて紹介する。
我々のフレームワークは、大規模なデータセットから各履歴を効率的に要約し、評価する能力において、異なる。
その結果,自動再試行フレームワークは従来の手作業よりも11倍高速であることがわかった。
論文 参考訳(メタデータ) (2024-01-16T12:30:56Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。