論文の概要: Application of LLM Agents in Recruitment: A Novel Framework for Resume
Screening
- arxiv url: http://arxiv.org/abs/2401.08315v1
- Date: Tue, 16 Jan 2024 12:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 14:27:06.443604
- Title: Application of LLM Agents in Recruitment: A Novel Framework for Resume
Screening
- Title(参考訳): LLMエージェントのリクルートへの応用:リソームスクリーニングのための新しいフレームワーク
- Authors: Chengguang Gan, Qinghao Zhang, Tatsunori Mori
- Abstract要約: 本稿では,新しい大規模言語モデルに基づくエージェント・フレームワークについて紹介する。
我々のフレームワークは、大規模なデータセットから各履歴を効率的に要約し、評価する能力において、異なる。
その結果,自動再試行フレームワークは従来の手作業よりも11倍高速であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automation of resume screening is a crucial aspect of the recruitment
process in organizations. Automated resume screening systems often encompass a
range of natural language processing (NLP) tasks. The advent of Large Language
Models (LLMs) has notably enhanced the efficacy of these systems, showcasing
their robust generalization abilities across diverse language-related tasks.
Accompanying these developments are various agents based on LLMs, which
facilitate their application in practical scenarios. This paper introduces a
novel LLM-based agent framework for resume screening, aimed at enhancing
efficiency and time management in recruitment processes. Our framework is
distinct in its ability to efficiently summarize and grade each resume from a
large dataset. Moreover, it utilizes LLM agents for decision-making,
determining which candidates receive job offers, or which ones to bring in for
interviews. To evaluate our framework, we constructed a dataset from actual
resumes and conducted simulate a resume screening process. Subsequently, the
outcomes of the simulation experiment were compared and subjected to detailed
analysis. The results demonstrate that our automated resume screening framework
is 11 times faster than traditional manual methods. Furthermore, by fine-tuning
the LLMs, we observed a significant improvement in the F1 score, reaching
87.73\%, during the resume sentence classification phase. In the resume
summarization and grading phase, our fine-tuned model surpassed the baseline
performance of the GPT-3.5 model. Analysis of the decision-making efficacy of
the LLM agents in the final offer stage further underscores the potential of
LLM agents in transforming resume screening processes.
- Abstract(参考訳): 再選審査の自動化は、組織における採用プロセスの重要な側面である。
自動再試行システムは、自然言語処理(NLP)タスクを多用することが多い。
LLM(Large Language Models)の出現は、これらのシステムの有効性を顕著に向上させ、様々な言語関連タスクにまたがる堅牢な一般化能力を示している。
これらの開発には LLM をベースとした様々なエージェントがあり、現実的なシナリオでの応用を促進する。
本稿では,リクルートプロセスの効率化と時間管理を目的とした,新しいLCMベースのエージェント・フレームワークを提案する。
私たちのフレームワークは、大きなデータセットからそれぞれの履歴書を効率的に要約し、評価する能力が異なります。
さらに、LLMエージェントを使用して意思決定し、どの候補者が求職するか、どの候補が面接を受けるかを決定する。
本フレームワークを評価するために,実際の履歴書からデータセットを構築し,履歴書スクリーニングプロセスのシミュレーションを行った。
その後,シミュレーション実験の結果を比較し,詳細な分析を行った。
その結果,自動再試行フレームワークは従来の手作業よりも11倍高速であることがわかった。
さらに, llmの微調整により, f1スコアが87.73\%まで大幅に向上したことを確認した。
履歴書要約と階調段階において,本モデルはgpt-3.5モデルのベースライン性能を上回った。
最終提案段階におけるLLMエージェントの意思決定効果の分析は、再試行過程の転換におけるLLMエージェントの可能性をさらに強調する。
関連論文リスト
- Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorFBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorFEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することができることを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z) - Unleashing the Power of Large Language Models in Zero-shot Relation Extraction via Self-Prompting [21.04933334040135]
本稿では,大規模言語モデルに組み込まれたRE知識を十分に活用する新しい手法であるSelf-Promptingフレームワークを紹介する。
我々のフレームワークは3段階の多様性アプローチを用いてLSMを誘導し、スクラッチから特定の関係をカプセル化する複数の合成サンプルを生成する。
ベンチマークデータセットを用いた実験により,既存のLCMベースのゼロショットRE法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-10-02T01:12:54Z) - AlpaPICO: Extraction of PICO Frames from Clinical Trial Documents Using LLMs [8.100885311316118]
近年,臨床治験報告の発行が急増しており,体系的レビューの実施が困難になっている。
臨床試験から人口、介入、比較、アウトカム(PICO)を自動的に抽出することは、体系的レビューを手作業で精査する伝統的な時間的プロセスを軽減することができる。
本研究では, LLMの事前学習期間中に収集されたLarge Language Models (LLMs) の事前学習知識を用いてICL戦略を採用し, PICO関連用語を自動的に抽出する。
論文 参考訳(メタデータ) (2024-09-15T11:53:24Z) - RepEval: Effective Text Evaluation with LLM Representation [55.26340302485898]
RepEvalは、評価のためにLarge Language Models(LLM)表現の投影を利用するメトリクスである。
我々の研究は、LLM表現に埋め込まれたテキスト品質に関する情報の豊かさを強調し、新しいメトリクスの開発のための洞察を提供する。
論文 参考訳(メタデータ) (2024-04-30T13:50:55Z) - Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented Generation [128.01050030936028]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - Summarization is (Almost) Dead [49.360752383801305]
我々は,大規模言語モデル(LLM)のゼロショット生成能力を評価するため,新しいデータセットを開発し,人間による評価実験を行う。
本研究は, 微調整モデルにより生成した要約や要約よりも, LLM生成要約に対する人間の評価において, 明らかな優位性を示した。
論文 参考訳(メタデータ) (2023-09-18T08:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。