論文の概要: Enhancing Talent Search Ranking with Role-Aware Expert Mixtures and LLM-based Fine-Grained Job Descriptions
- arxiv url: http://arxiv.org/abs/2512.00004v1
- Date: Sun, 05 Oct 2025 14:17:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.372054
- Title: Enhancing Talent Search Ranking with Role-Aware Expert Mixtures and LLM-based Fine-Grained Job Descriptions
- Title(参考訳): ロール・アウェア・エキスパート・ミックスとLLMに基づくファイングラインドジョブ記述によるタレント検索ランク付けの強化
- Authors: Jihang Li, Bing Xu, Zulong Chen, Chuanfei Xu, Minping Chen, Suyu Liu, Ying Zhou, Zeyi Wen,
- Abstract要約: タレント検索は現代の求人制度の基盤となっているが、既存のアプローチは、求職に特有な好奇心をつかむのに苦労することが多い。
本稿では,人材検索の有効性を高め,実質的なビジネス価値を提供する新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 27.733267584058023
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Talent search is a cornerstone of modern recruitment systems, yet existing approaches often struggle to capture nuanced job-specific preferences, model recruiter behavior at a fine-grained level, and mitigate noise from subjective human judgments. We present a novel framework that enhances talent search effectiveness and delivers substantial business value through two key innovations: (i) leveraging LLMs to extract fine-grained recruitment signals from job descriptions and historical hiring data, and (ii) employing a role-aware multi-gate MoE network to capture behavioral differences across recruiter roles. To further reduce noise, we introduce a multi-task learning module that jointly optimizes click-through rate (CTR), conversion rate (CVR), and resume matching relevance. Experiments on real-world recruitment data and online A/B testing show relative AUC gains of 1.70% (CTR) and 5.97% (CVR), and a 17.29% lift in click-through conversion rate. These improvements reduce dependence on external sourcing channels, enabling an estimated annual cost saving of millions of CNY.
- Abstract(参考訳): タレント検索は現代の求人制度の基盤となっているが、既存のアプローチは、微粒なレベルでの求職者行動や、主観的な人間の判断から騒音を緩和するためにしばしば苦労している。
人材検索の有効性を高め、2つの重要な革新を通じて実質的なビジネス価値を提供する新しい枠組みを提案する。
一 職務記述及び履歴採用データから微粒な採用信号の抽出にLLMを活用すること。
(2) 採用者の役割間の行動の違いを捉えるために,役割対応マルチゲートMoEネットワークを利用する。
さらにノイズを低減するために、クリックスルーレート(CTR)、変換レート(CVR)、マッチング関係の再開を共同で最適化するマルチタスク学習モジュールを導入する。
実世界の採用データとオンラインA/Bテストの実験では、AUCの相対的な増加率は1.70%(CTR)と5.97%(CVR)で、クリックスルー変換レートは17.29%上昇した。
これらの改善により外部ソーシングチャネルへの依存が減少し、年間数百万のCNYのコスト削減が期待できる。
関連論文リスト
- Self-Routing RAG: Binding Selective Retrieval with Knowledge Verbalization [95.85537087475882]
既存のアプローチは、大規模言語モデル(LLM)の固有の知識を過小評価している。
本稿では,選択検索と知識の言語化を結びつける新しいフレームワークであるSelf-Routing RAGを提案する。
SR-RAGは検索回数を29%削減し、性能は5.1%向上した。
論文 参考訳(メタデータ) (2025-04-01T17:59:30Z) - AI Hiring with LLMs: A Context-Aware and Explainable Multi-Agent Framework for Resume Screening [12.845918958645676]
大規模言語モデル(LLM)を用いたスクリーニング再開のためのマルチエージェントフレームワークを提案する。
フレームワークは、履歴抽出器、評価器、要約器、スコアフォーマッターを含む4つのコアエージェントから構成される。
この動的適応は、パーソナライズされた採用を可能にし、AI自動化と人材獲得のギャップを埋める。
論文 参考訳(メタデータ) (2025-04-01T12:56:39Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Democratizing LLMs: An Exploration of Cost-Performance Trade-offs in
Self-Refined Open-Source Models [53.859446823312126]
SoTAは7Bから65Bまでのさまざまなサイズのオープンソースモデルを平均して、ベースラインのパフォーマンスから8.2%改善している。
厳密に言えば、Vicuna-7Bのような非常に小さなメモリフットプリントを持つモデルでさえ、全体的な11.74%の改善と、高い創造性、オープンエンドタスクの25.39%の改善を示している。
論文 参考訳(メタデータ) (2023-10-11T15:56:00Z) - CURO: Curriculum Learning for Relative Overgeneralization [6.573807158449973]
相対的オーバージェネリゼーション(Relative Over generalization, RO)は、協調的なマルチエージェントタスクで発生する病理である。
相対オーバージェネリゼーション(CURO)のためのカリキュラム学習という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T03:41:08Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。