論文の概要: MSLEF: Multi-Segment LLM Ensemble Finetuning in Recruitment
- arxiv url: http://arxiv.org/abs/2509.06200v1
- Date: Sun, 07 Sep 2025 20:27:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.899718
- Title: MSLEF: Multi-Segment LLM Ensemble Finetuning in Recruitment
- Title(参考訳): MSLEF:マルチセグメントLLMアンサンブルのリクルート
- Authors: Omar Walid, Mohamed T. Younes, Khaled Shaban, Mai Hassan, Ali Hamdi,
- Abstract要約: 本稿では,リクルート自動化における再開構文解析の強化を目的としたマルチセグメントアンサンブルフレームワークMSLEFを提案する。
重み付け投票を使用して微調整されたLarge Language Model (LLM) を統合し、各モデルは特定の履歴書セグメントに特化して精度を高める。
Exact Match (EM)、F1 score、BLEU、ROUGE、Recruitment similarity (RS)のメトリクスが大幅に改善され、最高のシングルモデルよりも最大で7%向上した。
- 参考スコア(独自算出の注目度): 0.4349640169711269
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents MSLEF, a multi-segment ensemble framework that employs LLM fine-tuning to enhance resume parsing in recruitment automation. It integrates fine-tuned Large Language Models (LLMs) using weighted voting, with each model specializing in a specific resume segment to boost accuracy. Building on MLAR , MSLEF introduces a segment-aware architecture that leverages field-specific weighting tailored to each resume part, effectively overcoming the limitations of single-model systems by adapting to diverse formats and structures. The framework incorporates Gemini-2.5-Flash LLM as a high-level aggregator for complex sections and utilizes Gemma 9B, LLaMA 3.1 8B, and Phi-4 14B. MSLEF achieves significant improvements in Exact Match (EM), F1 score, BLEU, ROUGE, and Recruitment Similarity (RS) metrics, outperforming the best single model by up to +7% in RS. Its segment-aware design enhances generalization across varied resume layouts, making it highly adaptable to real-world hiring scenarios while ensuring precise and reliable candidate representation.
- Abstract(参考訳): 本稿では,LLMファインチューニングを利用したマルチセグメントアンサンブルフレームワークであるMSLEFについて述べる。
重み付け投票を使用して微調整されたLarge Language Model (LLM) を統合し、各モデルは特定の履歴書セグメントに特化して精度を高める。
MLAR上に構築されているMSLEFは、各履歴書に合わせたフィールド固有の重み付けを活用するセグメント認識アーキテクチャを導入し、多様なフォーマットや構造に適応することで、シングルモデルシステムの制限を効果的に克服する。
このフレームワークはGemini-2.5-Flash LLMを複雑なセクションの高レベルアグリゲータとして組み込んでおり、Gemma 9B、LLaMA 3.1 8B、Phi-4 14Bを使用している。
MSLEFは、Exact Match(EM)、F1 score、BLEU、ROUGE、Recruitment similarity(RS)のメトリクスを大幅に改善し、最高のシングルモデルよりも最大で7%向上した。
セグメント認識設計により、様々な履歴レイアウトの一般化が促進され、現実の雇用シナリオに高度に適応でき、正確で信頼性の高い候補表現が保証される。
関連論文リスト
- Augmented Fine-Tuned LLMs for Enhanced Recruitment Automation [0.4349640169711269]
大規模言語モデル(LLM)は精度と効率を向上させるために微調整された。
システムは標準化されたフォーマットを使用する合成データセットを作成する。
Phy-4は90.62%という最高スコアを達成し、採用作業における例外的な精度とリコールを示している。
論文 参考訳(メタデータ) (2025-09-07T20:18:31Z) - SPHINX-X: Scaling Data and Parameters for a Family of Multi-modal Large Language Models [97.40590590880144]
MLLM(Multimodality Large Language Model)シリーズを開発した。
我々は、言語、ビジョン、視覚言語タスクで利用可能なリソースを網羅した包括的なデータセットを組み立てる。
パラメータサイズや多言語能力の異なるMLLMのスペクトルを得る。
論文 参考訳(メタデータ) (2024-02-08T18:59:48Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Generative Multimodal Entity Linking [24.322540112710918]
MEL(Multimodal Entity Linking)は、知識ベースからの参照エンティティへの参照をマルチモーダルコンテキストでマッピングするタスクである。
既存のMEL法は主に複雑なマルチモーダル相互作用機構の設計に重点を置いており、すべてのモデルパラメータを微調整する必要がある。
大規模言語モデル(LLM)に基づくジェネレーティブマルチモーダルエンティティリンクフレームワークであるGEMELを提案する。
当社のフレームワークは市販の言語モデルと互換性があり、効率的で汎用的なソリューションへの道を開いたものです。
論文 参考訳(メタデータ) (2023-06-22T07:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。