論文の概要: MSLEF: Multi-Segment LLM Ensemble Finetuning in Recruitment
- arxiv url: http://arxiv.org/abs/2509.06200v1
- Date: Sun, 07 Sep 2025 20:27:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.899718
- Title: MSLEF: Multi-Segment LLM Ensemble Finetuning in Recruitment
- Title(参考訳): MSLEF:マルチセグメントLLMアンサンブルのリクルート
- Authors: Omar Walid, Mohamed T. Younes, Khaled Shaban, Mai Hassan, Ali Hamdi,
- Abstract要約: 本稿では,リクルート自動化における再開構文解析の強化を目的としたマルチセグメントアンサンブルフレームワークMSLEFを提案する。
重み付け投票を使用して微調整されたLarge Language Model (LLM) を統合し、各モデルは特定の履歴書セグメントに特化して精度を高める。
Exact Match (EM)、F1 score、BLEU、ROUGE、Recruitment similarity (RS)のメトリクスが大幅に改善され、最高のシングルモデルよりも最大で7%向上した。
- 参考スコア(独自算出の注目度): 0.4349640169711269
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents MSLEF, a multi-segment ensemble framework that employs LLM fine-tuning to enhance resume parsing in recruitment automation. It integrates fine-tuned Large Language Models (LLMs) using weighted voting, with each model specializing in a specific resume segment to boost accuracy. Building on MLAR , MSLEF introduces a segment-aware architecture that leverages field-specific weighting tailored to each resume part, effectively overcoming the limitations of single-model systems by adapting to diverse formats and structures. The framework incorporates Gemini-2.5-Flash LLM as a high-level aggregator for complex sections and utilizes Gemma 9B, LLaMA 3.1 8B, and Phi-4 14B. MSLEF achieves significant improvements in Exact Match (EM), F1 score, BLEU, ROUGE, and Recruitment Similarity (RS) metrics, outperforming the best single model by up to +7% in RS. Its segment-aware design enhances generalization across varied resume layouts, making it highly adaptable to real-world hiring scenarios while ensuring precise and reliable candidate representation.
- Abstract(参考訳): 本稿では,LLMファインチューニングを利用したマルチセグメントアンサンブルフレームワークであるMSLEFについて述べる。
重み付け投票を使用して微調整されたLarge Language Model (LLM) を統合し、各モデルは特定の履歴書セグメントに特化して精度を高める。
MLAR上に構築されているMSLEFは、各履歴書に合わせたフィールド固有の重み付けを活用するセグメント認識アーキテクチャを導入し、多様なフォーマットや構造に適応することで、シングルモデルシステムの制限を効果的に克服する。
このフレームワークはGemini-2.5-Flash LLMを複雑なセクションの高レベルアグリゲータとして組み込んでおり、Gemma 9B、LLaMA 3.1 8B、Phi-4 14Bを使用している。
MSLEFは、Exact Match(EM)、F1 score、BLEU、ROUGE、Recruitment similarity(RS)のメトリクスを大幅に改善し、最高のシングルモデルよりも最大で7%向上した。
セグメント認識設計により、様々な履歴レイアウトの一般化が促進され、現実の雇用シナリオに高度に適応でき、正確で信頼性の高い候補表現が保証される。
関連論文リスト
- Fine-R1: Make Multi-modal LLMs Excel in Fine-Grained Visual Recognition by Chain-of-Thought Reasoning [47.868429337792314]
Fine-R1は、ファイングラインド視覚認識用に設計されたR1スタイルのMLLMである。
4ショットのトレーニングだけで、Fine-R1は既存のMLLMよりも優れており、MLLMの推論や、対照的なCLIPモデルも優れている。
論文 参考訳(メタデータ) (2026-02-07T16:16:51Z) - Augmented Fine-Tuned LLMs for Enhanced Recruitment Automation [0.4349640169711269]
大規模言語モデル(LLM)は精度と効率を向上させるために微調整された。
システムは標準化されたフォーマットを使用する合成データセットを作成する。
Phy-4は90.62%という最高スコアを達成し、採用作業における例外的な精度とリコールを示している。
論文 参考訳(メタデータ) (2025-09-07T20:18:31Z) - FusionFactory: Fusing LLM Capabilities with Multi-LLM Log Data [60.09659670497899]
大規模言語モデル(LLM)は、さまざまなモデルのランドスケープを持ち、それぞれが異なるタスクで優れています。
この多様性は、研究者に複数のLLMを実際に採用させ、貴重なマルチLLMログデータを残します。
1)実世界のサービスシナリオ(例えば、ローカルおよびAPIベースのサービス)との互換性と、(2)様々なユーザニーズを満たすためにLLMパイプラインの異なる段階での運用の柔軟性である。
論文 参考訳(メタデータ) (2025-07-14T17:58:02Z) - DFPE: A Diverse Fingerprint Ensemble for Enhancing LLM Performance [11.753349115726952]
そこで我々は,新しいアンサンブル法であるDiverse Fingerprint Ensemble (DFPE)を提案する。
提案手法は,(1)応答型"フィンガープリント"パターンに基づくクラスタリングモデル,(2)量子化に基づくフィルタリング機構の適用,(3)残余モデルに適応重みを割り当てることである。
MMLU(Massive Multitask Language Understanding)ベンチマークの実験では、DFPEは、全体的な精度が3%、規律レベルの精度が5%向上し、最高のシングルモデルを上回った。
論文 参考訳(メタデータ) (2025-01-29T08:44:45Z) - ULLME: A Unified Framework for Large Language Model Embeddings with Generation-Augmented Learning [72.90823351726374]
我々は,LLM間の双方向の注目を可能にする,柔軟でプラグアンドプレイな実装であるLULME(Unified framework for Large Language Model Embedding)を紹介した。
また,テキスト埋め込みタスクのLLMを向上する新しい微調整手法であるGRL(Generation-augmented Representation Learning)を提案する。
フレームワークの柔軟性と有効性を示すために、異なるバックボーンアーキテクチャを持つULLMEから事前訓練された3つのモデルをリリースする。
論文 参考訳(メタデータ) (2024-08-06T18:53:54Z) - SoupLM: Model Integration in Large Language and Multi-Modal Models [51.12227693121004]
大規模言語モデル(LLM)の訓練には、かなりの計算資源が必要である。
既存の公開LLMは通常、さまざまなタスクにまたがる、多種多様なプライベートにキュレートされたデータセットで事前トレーニングされる。
論文 参考訳(メタデータ) (2024-07-11T05:38:15Z) - FOFO: A Benchmark to Evaluate LLMs' Format-Following Capability [70.84333325049123]
FoFoは、大規模言語モデル(LLM)の複雑なドメイン固有のフォーマットに従う能力を評価するための先駆的なベンチマークである。
本稿では,大規模言語モデル(LLM)の複雑なドメイン固有フォーマットに従う能力を評価するための先駆的ベンチマークであるFoFoを提案する。
論文 参考訳(メタデータ) (2024-02-28T19:23:27Z) - SPHINX-X: Scaling Data and Parameters for a Family of Multi-modal Large Language Models [97.40590590880144]
MLLM(Multimodality Large Language Model)シリーズを開発した。
我々は、言語、ビジョン、視覚言語タスクで利用可能なリソースを網羅した包括的なデータセットを組み立てる。
パラメータサイズや多言語能力の異なるMLLMのスペクトルを得る。
論文 参考訳(メタデータ) (2024-02-08T18:59:48Z) - A Framework to Implement 1+N Multi-task Fine-tuning Pattern in LLMs
Using the CGC-LORA Algorithm [7.521690071464451]
大規模言語モデル (LLM) において, 1 + N mutli-task の微調整パターンを実装する統一フレームワークを提案する。
我々の研究は、MPL(CGC)とPEFT(LoRA)の両方の利点を享受することを目的としている。
論文 参考訳(メタデータ) (2024-01-22T07:58:31Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Generative Multimodal Entity Linking [24.322540112710918]
MEL(Multimodal Entity Linking)は、知識ベースからの参照エンティティへの参照をマルチモーダルコンテキストでマッピングするタスクである。
既存のMEL法は主に複雑なマルチモーダル相互作用機構の設計に重点を置いており、すべてのモデルパラメータを微調整する必要がある。
大規模言語モデル(LLM)に基づくジェネレーティブマルチモーダルエンティティリンクフレームワークであるGEMELを提案する。
当社のフレームワークは市販の言語モデルと互換性があり、効率的で汎用的なソリューションへの道を開いたものです。
論文 参考訳(メタデータ) (2023-06-22T07:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。