論文の概要: Scalable Identification and Prioritization of Requisition-Specific Personal Competencies Using Large Language Models
- arxiv url: http://arxiv.org/abs/2604.00006v1
- Date: Mon, 09 Mar 2026 13:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:13.181273
- Title: Scalable Identification and Prioritization of Requisition-Specific Personal Competencies Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた要求特化個人能力のスケーラブル同定と優先順位付け
- Authors: Wanxin Li, Denver McNeney, Nivedita Prabhu, Charlene Zhang, Renee Barr, Matthew Kitching, Khanh Dao Duc, Anthony S. Boyce,
- Abstract要約: 大規模言語モデル (LLM) を用いて,req からreq 固有の PC を識別・優先順位付けする手法を提案する。
提案手法は,ダイナミックなショットプロンプト,リフレクションに基づく自己改善,類似性に基づくフィルタリング,マルチステージ検証などを統合する。
- 参考スコア(独自算出の注目度): 1.8148613308949546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-powered recruitment tools are increasingly adopted in personnel selection, yet they struggle to capture the requisition (req)-specific personal competencies (PCs) that distinguish successful candidates beyond job categories. We propose a large language model (LLM)-based approach to identify and prioritize req-specific PCs from reqs. Our approach integrates dynamic few-shot prompting, reflection-based self-improvement, similarity-based filtering, and multi-stage validation. Applied to a dataset of Program Manager reqs, our approach correctly identifies the highest-priority req-specific PCs with an average accuracy of 0.76, approaching human expert inter-rater reliability, and maintains a low out-of-scope rate of 0.07.
- Abstract(参考訳): AIを活用した採用ツールは人事選抜にますます採用されているが、職種を超えて成功した候補者を区別する要求(req)固有の個人能力(PC)の獲得に苦慮している。
大規模言語モデル (LLM) を用いて,req からreq 固有の PC を識別・優先順位付けする手法を提案する。
提案手法は,ダイナミックなショットプロンプト,リフレクションに基づく自己改善,類似性に基づくフィルタリング,マルチステージ検証などを統合する。
Program Manager reqsのデータセットに適用すると、平均精度0.76で優先度の高いreq特化PCを正しく識別し、専門家間の信頼性に近づき、スコープ外レート0.07を維持することができる。
関連論文リスト
- Benchmarking Contextual Understanding for In-Car Conversational Systems [0.9437812993238097]
In-car Conversational Question Answering (ConvQA) システムは,シームレスな音声対話を実現することでユーザエクスペリエンスを著しく向上させる。
本稿では,Large Language Models (LLMs) と高度なプロンプト技術およびエージェントベース手法を用いて,ConvQAシステム応答がユーザの発話に適合する程度を評価する。
論文 参考訳(メタデータ) (2025-12-12T21:15:49Z) - AgenticIQA: An Agentic Framework for Adaptive and Interpretable Image Quality Assessment [69.06977852423564]
画像品質評価(IQA)は、人間の視覚系に根ざした知覚品質の定量化と解釈の両方を反映している。
AgenticIQAは、IQAを歪み検出、歪み解析、ツール選択、ツール実行の4つのサブタスクに分解する。
本稿では,IQAエージェントに適した大規模命令データセットであるAgenticIQA-200Kと,VLMベースのIQAエージェントの計画,実行,要約機能を評価するための最初のベンチマークであるAgenticIQA-Evalを紹介する。
論文 参考訳(メタデータ) (2025-09-30T09:37:01Z) - Pathways of Thoughts: Multi-Directional Thinking for Long-form Personalized Question Answering [57.12316804290369]
ユーザ固有の情報ニーズに質問応答システムを適用するためには,パーソナライゼーションが不可欠である。
本稿では,タスク固有の微調整を必要とせず,任意の大規模言語モデル (LLM) に適用可能な推論段階の方法として,思考の経路 (PoT) を提案する。
PoTは競争ベースラインを一貫して上回り、13.1%の相対的な改善を達成している。
論文 参考訳(メタデータ) (2025-09-23T14:44:46Z) - CritiQ: Mining Data Quality Criteria from Human Preferences [91.44025907584931]
人間の嗜好からデータ品質の基準を自動的にマイニングする新しいデータ選択手法であるCritiQを紹介する。
CritiQ Flowはマネージャエージェントを使用して品質基準を進化させ、ワーカーエージェントはペアで判断する。
コード,数学,論理領域において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-02-26T16:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。