論文の概要: Application of LLM Agents in Recruitment: A Novel Framework for Resume
Screening
- arxiv url: http://arxiv.org/abs/2401.08315v1
- Date: Tue, 16 Jan 2024 12:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 14:27:06.443604
- Title: Application of LLM Agents in Recruitment: A Novel Framework for Resume
Screening
- Title(参考訳): LLMエージェントのリクルートへの応用:リソームスクリーニングのための新しいフレームワーク
- Authors: Chengguang Gan, Qinghao Zhang, Tatsunori Mori
- Abstract要約: 本稿では,新しい大規模言語モデルに基づくエージェント・フレームワークについて紹介する。
我々のフレームワークは、大規模なデータセットから各履歴を効率的に要約し、評価する能力において、異なる。
その結果,自動再試行フレームワークは従来の手作業よりも11倍高速であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automation of resume screening is a crucial aspect of the recruitment
process in organizations. Automated resume screening systems often encompass a
range of natural language processing (NLP) tasks. The advent of Large Language
Models (LLMs) has notably enhanced the efficacy of these systems, showcasing
their robust generalization abilities across diverse language-related tasks.
Accompanying these developments are various agents based on LLMs, which
facilitate their application in practical scenarios. This paper introduces a
novel LLM-based agent framework for resume screening, aimed at enhancing
efficiency and time management in recruitment processes. Our framework is
distinct in its ability to efficiently summarize and grade each resume from a
large dataset. Moreover, it utilizes LLM agents for decision-making,
determining which candidates receive job offers, or which ones to bring in for
interviews. To evaluate our framework, we constructed a dataset from actual
resumes and conducted simulate a resume screening process. Subsequently, the
outcomes of the simulation experiment were compared and subjected to detailed
analysis. The results demonstrate that our automated resume screening framework
is 11 times faster than traditional manual methods. Furthermore, by fine-tuning
the LLMs, we observed a significant improvement in the F1 score, reaching
87.73\%, during the resume sentence classification phase. In the resume
summarization and grading phase, our fine-tuned model surpassed the baseline
performance of the GPT-3.5 model. Analysis of the decision-making efficacy of
the LLM agents in the final offer stage further underscores the potential of
LLM agents in transforming resume screening processes.
- Abstract(参考訳): 再選審査の自動化は、組織における採用プロセスの重要な側面である。
自動再試行システムは、自然言語処理(NLP)タスクを多用することが多い。
LLM(Large Language Models)の出現は、これらのシステムの有効性を顕著に向上させ、様々な言語関連タスクにまたがる堅牢な一般化能力を示している。
これらの開発には LLM をベースとした様々なエージェントがあり、現実的なシナリオでの応用を促進する。
本稿では,リクルートプロセスの効率化と時間管理を目的とした,新しいLCMベースのエージェント・フレームワークを提案する。
私たちのフレームワークは、大きなデータセットからそれぞれの履歴書を効率的に要約し、評価する能力が異なります。
さらに、LLMエージェントを使用して意思決定し、どの候補者が求職するか、どの候補が面接を受けるかを決定する。
本フレームワークを評価するために,実際の履歴書からデータセットを構築し,履歴書スクリーニングプロセスのシミュレーションを行った。
その後,シミュレーション実験の結果を比較し,詳細な分析を行った。
その結果,自動再試行フレームワークは従来の手作業よりも11倍高速であることがわかった。
さらに, llmの微調整により, f1スコアが87.73\%まで大幅に向上したことを確認した。
履歴書要約と階調段階において,本モデルはgpt-3.5モデルのベースライン性能を上回った。
最終提案段階におけるLLMエージェントの意思決定効果の分析は、再試行過程の転換におけるLLMエージェントの可能性をさらに強調する。
関連論文リスト
- RepEval: Effective Text Evaluation with LLM Representation [54.07909112633993]
評価のためにLLM表現の投影を利用した最初の計量であるRepEvalを紹介する。
RepEvalはトレーニングに最小限のサンプルペアを必要とし、簡単なプロンプト修正によって、さまざまなタスクに簡単に移行できる。
3つのタスクから得られた10個のデータセットの結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-04-30T13:50:55Z) - Automated Commit Message Generation with Large Language Models: An Empirical Study and Beyond [24.151927600694066]
コミットメッセージ生成(CMG)アプローチは、与えられたコード差分に基づいてコミットメッセージを自動的に生成することを目的としている。
本稿では,Large Language Models (LLMs) を用いて高品質なコミットメッセージの生成にどの程度の期間を費やしてきたかを調べるための,最初の包括的な実験を行う。
論文 参考訳(メタデータ) (2024-04-23T08:24:43Z) - Unveiling LLM Evaluation Focused on Metrics: Challenges and Solutions [2.5179515260542544]
大規模言語モデル (LLM) は、テキスト生成、質問応答、テキスト要約における汎用的な応用のために、学界や業界全体で大きな注目を集めている。
パフォーマンスを定量化するためには、既存のメトリクスを包括的に把握することが重要です。
本稿では,メトリクスの観点からLLM評価を包括的に調査し,現在使用されているメトリクスの選択と解釈について考察する。
論文 参考訳(メタデータ) (2024-04-14T03:54:00Z) - Identifying Factual Inconsistency in Summaries: Towards Effective
Utilization of Large Language Model [50.71344457241456]
この研究は2つの重要な疑問に焦点をあてる: 現実の不整合検出に大規模言語モデル(LLM)を利用する最善の方法は何か、そして、どのようにしてより小さなLCMを高い効率と有効性で蒸留できるのか?
実験の結果、LLM自体が適切なパラダイム設計の下でこのタスクを無断で解決でき、訓練されたベースラインが平均2.8%を超えることが示唆された。
実用性をさらに向上するため,我々はより小型のオープンソースLCMを蒸留し,要約全体を高精度にまとめることを目指す訓練戦略を提案する。
論文 参考訳(メタデータ) (2024-02-20T08:41:23Z) - Benchmarking Generation and Evaluation Capabilities of Large Language
Models for Instruction Controllable Summarization [136.18825814573208]
命令制御可能なテキスト要約の大規模言語モデル(LLM)をベンチマークする。
本研究は,LLMにおいて,命令制御可能なテキスト要約が依然として困難な課題であることを示す。
論文 参考訳(メタデータ) (2023-11-15T18:25:26Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - Summarization is (Almost) Dead [49.360752383801305]
我々は,大規模言語モデル(LLM)のゼロショット生成能力を評価するため,新しいデータセットを開発し,人間による評価実験を行う。
本研究は, 微調整モデルにより生成した要約や要約よりも, LLM生成要約に対する人間の評価において, 明らかな優位性を示した。
論文 参考訳(メタデータ) (2023-09-18T08:13:01Z) - ISR-LLM: Iterative Self-Refined Large Language Model for Long-Horizon
Sequential Task Planning [7.701407633867452]
大規模言語モデル(LLM)は、タスクに依存しないプランナとして一般化性を高める可能性を提供する。
ISR-LLMは,反復的な自己複製プロセスを通じてLCMに基づく計画を改善する新しいフレームワークである。
ISR-LLM は現状の LLM ベースのプランナに比べてタスク達成率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-08-26T01:31:35Z) - LaGR-SEQ: Language-Guided Reinforcement Learning with Sample-Efficient
Querying [71.86163159193327]
大規模言語モデル(LLM)は、最近、テキストを介してコンテキスト対応の応答を提供するという、印象的な能力を実証した。
この能力は、パターン補完に関連するシーケンシャルな意思決定タスクにおいて、妥当なソリューションを予測するために使われる可能性がある。
第一強化学習(RL)エージェントによって部分的に完了したタスクに対する解を提案するために,LLMのこの予測能力を利用するLaGRを紹介した。
論文 参考訳(メタデータ) (2023-08-21T02:07:35Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。