論文の概要: An Efficient Long-Context Ranking Architecture With Calibrated LLM Distillation: Application to Person-Job Fit
- arxiv url: http://arxiv.org/abs/2601.10321v2
- Date: Fri, 16 Jan 2026 15:24:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 14:30:44.060996
- Title: An Efficient Long-Context Ranking Architecture With Calibrated LLM Distillation: Application to Person-Job Fit
- Title(参考訳): 校正LDM蒸留による効率よい長期ランク付けアーキテクチャー-人事フィットへの適用
- Authors: Warren Jouanneau, Emma Jouffroy, Marc Palyart,
- Abstract要約: そこで我々は,次世代のクロスアテンションアーキテクチャに基づく再ランクモデルを提案する。
歴史データのバイアスを軽減するため,生成型大規模言語モデル(LLM)を教師として用いた。
得られたモデルは、一貫性と解釈可能なパーソン・ジョブマッチングを可能にする、スキルフィットスコアを生成する。
- 参考スコア(独自算出の注目度): 0.6117371161379207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finding the most relevant person for a job proposal in real time is challenging, especially when resumes are long, structured, and multilingual. In this paper, we propose a re-ranking model based on a new generation of late cross-attention architecture, that decomposes both resumes and project briefs to efficiently handle long-context inputs with minimal computational overhead. To mitigate historical data biases, we use a generative large language model (LLM) as a teacher, generating fine-grained, semantically grounded supervision. This signal is distilled into our student model via an enriched distillation loss function. The resulting model produces skill-fit scores that enable consistent and interpretable person-job matching. Experiments on relevance, ranking, and calibration metrics demonstrate that our approach outperforms state-of-the-art baselines.
- Abstract(参考訳): 特に履歴書が長く、構造化され、多言語的であれば、仕事の提案に最も適した人物をリアルタイムで見つけることは難しい。
本稿では,履歴書とプロジェクトブリーフィングの両方を分解し,計算オーバーヘッドを最小限に抑えた長文入力を効率的に処理する,次世代のクロスアテンションアーキテクチャに基づく再ランクモデルを提案する。
歴史的データのバイアスを軽減するため,生成型大規模言語モデル(LLM)を教師として使用し,微粒でセマンティックに根ざした監督を行う。
このシグナルは、濃縮蒸留損失関数を介して学生モデルに蒸留される。
得られたモデルは、一貫性と解釈可能なパーソン・ジョブマッチングを可能にする、スキルフィットスコアを生成する。
関連性、ランキング、キャリブレーションに関する実験は、我々のアプローチが最先端のベースラインを上回っていることを示している。
関連論文リスト
- Reading Between the Lines: Classifying Resume Seniority with Large Language Models [38.57404400070555]
本研究では,履歴書の高齢者分類を自動化するための大規模言語モデルの有効性について検討した。
実世界の履歴書と合成されたハードサンプルを組み合わせたハイブリッドデータセットを提案する。
このデータセットを用いて、高齢者のインフレーションや暗黙の専門知識に関連する微妙な言語的手がかりを検出するために、大規模言語モデルの性能を評価する。
論文 参考訳(メタデータ) (2025-09-11T08:06:02Z) - Generalizing From Short to Long: Effective Data Synthesis for Long-Context Instruction Tuning [103.65680870130839]
本研究では,長期事前学習モデルの学習後段階の指導データを設計する方法について検討する。
制御された研究では、短い文脈で調整されたモデルが、より長いコンテキストに効果的に一般化できることが判明した。
これらの知見に基づいて,新しいデータ合成フレームワークであるコンテキスト合成を提案する。
論文 参考訳(メタデータ) (2025-02-21T17:02:40Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - Structured Packing in LLM Training Improves Long Context Utilization [11.484631908171465]
本研究では,意味的相互依存を高めるための学習データの構造化について検討する。
本研究では,SPLiCe(Structured Packing for Long Context)法を提案する。
我々はSPLiCeを様々なサイズのモデルで実証的に検証した。
論文 参考訳(メタデータ) (2023-12-28T16:25:52Z) - Distilling Large Language Models using Skill-Occupation Graph Context
for HR-Related Tasks [8.235367170516769]
幅広いHRタスクに対応するためにResume-Job Description Benchmark (RJDB)を導入する。
私たちのベンチマークには、ジョブ記述、マッチした履歴書、未一致の履歴書が5万件以上含まれています。
実験の結果,学生モデルは教師モデル(GPT-4)よりも近・近性能が得られ,ベンチマークの有効性が確認された。
論文 参考訳(メタデータ) (2023-11-10T20:25:42Z) - Effective Long-Context Scaling of Foundation Models [90.57254298730923]
最大32,768個のトークンの効率的なコンテキストウィンドウをサポートする長文LLMを提示する。
我々のモデルは、ほとんどの通常のタスクにおいて一貫した改善を達成し、Llama 2よりも長いコンテキストタスクを大幅に改善します。
論文 参考訳(メタデータ) (2023-09-27T21:41:49Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。