論文の概要: ConFit: Improving Resume-Job Matching using Data Augmentation and
Contrastive Learning
- arxiv url: http://arxiv.org/abs/2401.16349v1
- Date: Mon, 29 Jan 2024 17:55:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 13:54:38.656700
- Title: ConFit: Improving Resume-Job Matching using Data Augmentation and
Contrastive Learning
- Title(参考訳): ConFit: データ拡張とコントラスト学習によるResume-Job Matchingの改善
- Authors: Xiao Yu, Jinzhong Zhang, Zhou Yu
- Abstract要約: データ拡張と単純なコントラスト学習アプローチを用いて,空間性問題に対処する。
ConFitはまず、履歴書またはジョブポストの特定のセクションを言い換えることで、拡張された履歴書ジョブデータセットを作成する。
実世界の2つのデータセット上でConFitを評価し,ジョブとランキング履歴のランキングでは,それぞれnDCG@10で31%,絶対値で先行手法よりも優れていた。
- 参考スコア(独自算出の注目度): 20.599962663046007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A reliable resume-job matching system helps a company find suitable
candidates from a pool of resumes, and helps a job seeker find relevant jobs
from a list of job posts. However, since job seekers apply only to a few jobs,
interaction records in resume-job datasets are sparse. Different from many
prior work that use complex modeling techniques, we tackle this sparsity
problem using data augmentations and a simple contrastive learning approach.
ConFit first creates an augmented resume-job dataset by paraphrasing specific
sections in a resume or a job post. Then, ConFit uses contrastive learning to
further increase training samples from $B$ pairs per batch to $O(B^2)$ per
batch. We evaluate ConFit on two real-world datasets and find it outperforms
prior methods (including BM25 and OpenAI text-ada-002) by up to 19% and 31%
absolute in nDCG@10 for ranking jobs and ranking resumes, respectively.
- Abstract(参考訳): 信頼できる履歴書-ジョブマッチングシステムは、企業が履歴書のプールから適切な候補者を見つけるのを助け、求職者が求人のリストから関連するジョブを見つけるのを助ける。
しかし、求職者は少数のジョブにしか適用できないため、履歴ジョブデータセットのインタラクションレコードは乏しい。
複雑なモデリング技術を用いた多くの先行研究とは異なり、データ拡張と単純なコントラスト学習アプローチを用いて、この疎結合問題に取り組む。
ConFitはまず、履歴書またはジョブポストの特定のセクションを言い換えることで、拡張された履歴書ジョブデータセットを作成する。
confitでは、コントラスト学習を使用して、バッチ当たり$b$ペアから1バッチ当たり$o(b^2)$まで、トレーニングサンプルをさらに増やす。
実世界の2つのデータセット上でConFitを評価し,その先行手法(BM25とOpenAI text-ada-002)をそれぞれ19%,nDCG@10では31%,ランキング履歴では3。
関連論文リスト
- List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - NNOSE: Nearest Neighbor Occupational Skill Extraction [55.22292957778972]
作業スキルデータセットの複雑さに対処する。
我々は、データセット統一方式で類似したスキルを検索するために、外部データストアを使用します。
我々は、データセット間設定において、頻度の低いパターンを予測し、最大30%のスパンF1で性能向上を観察する。
論文 参考訳(メタデータ) (2024-01-30T15:18:29Z) - Divide and Conquer: Hybrid Pre-training for Person Search [40.13016375392472]
本研究では,サブタスクデータのみを用いた人物検索のためのハイブリッド事前学習フレームワークを提案する。
我々のモデルは、人物探索法、微調整データ、事前学習データ、モデルバックボーンなど、多様なプロトコルで大幅に改善できる。
私たちのコードと事前訓練されたモデルは、人検索コミュニティにプラグイン・アンド・プレイの使用のためにリリースされます。
論文 参考訳(メタデータ) (2023-12-13T08:33:50Z) - Efficient Grammatical Error Correction Via Multi-Task Training and
Optimized Training Schedule [55.08778142798106]
原文と修正文のアライメントを利用する補助タスクを提案する。
我々は,各タスクをシーケンス・ツー・シーケンス問題として定式化し,マルチタスク・トレーニングを行う。
トレーニングに使用されるデータセットの順序や、データセット内の個々のインスタンスでさえ、最終的なパフォーマンスに重要な影響を与える可能性があることが分かりました。
論文 参考訳(メタデータ) (2023-11-20T14:50:12Z) - Distilling Large Language Models using Skill-Occupation Graph Context
for HR-Related Tasks [8.235367170516769]
幅広いHRタスクに対応するためにResume-Job Description Benchmark (RJDB)を導入する。
私たちのベンチマークには、ジョブ記述、マッチした履歴書、未一致の履歴書が5万件以上含まれています。
実験の結果,学生モデルは教師モデル(GPT-4)よりも近・近性能が得られ,ベンチマークの有効性が確認された。
論文 参考訳(メタデータ) (2023-11-10T20:25:42Z) - JobHam-place with smart recommend job options and candidate filtering
options [0.0]
ジョブレコメンデーションとCVランキングは自動キーワード抽出から始まり、Job/CVランキングアルゴリズムで終わる。
Job2SkillはテキストエンコーダとGruベースのレイヤの2つのコンポーネントで構成されている。
ジョブ/CVランキングアルゴリズムは、TFIDFスコアと全スキルナンバーのマッチング比に基づいて、スキルワードの発生率を算出する。
論文 参考訳(メタデータ) (2023-03-31T09:54:47Z) - Construction of English Resume Corpus and Test with Pre-trained Language
Models [0.0]
本研究では,履歴書の情報抽出タスクを簡単な文分類タスクに変換することを目的とする。
分類規則は、履歴書のより大きくよりきめ細かな分類データセットを作成するために改善される。
このコーパスは、現在の主要なプレトレーニング言語モデル(PLM)のパフォーマンスをテストするためにも使われる。
論文 参考訳(メタデータ) (2022-08-05T15:07:23Z) - KnowDA: All-in-One Knowledge Mixture Model for Data Augmentation in
Few-Shot NLP [68.43279384561352]
既存のデータ拡張アルゴリズムはタスク非依存のルールや微調整の汎用事前訓練言語モデルを利用する。
これらの手法は、簡単なタスク固有の知識を持ち、単純なタスクにおいて弱いベースラインのための低品質な合成データを得るに限られる。
我々は,様々なNLPタスクを予め学習したエンコーダ/デコーダLMの知識混合データ拡張モデル(KnowDA)を提案する。
論文 参考訳(メタデータ) (2022-06-21T11:34:02Z) - Learning to Match Jobs with Resumes from Sparse Interaction Data using
Multi-View Co-Teaching Network [83.64416937454801]
ジョブ列のインタラクションデータは疎結合でノイズが多く、ジョブ列のマッチングアルゴリズムのパフォーマンスに影響する。
求人情報マッチングのための疎相互作用データから,新しいマルチビュー協調学習ネットワークを提案する。
我々のモデルは求人マッチングの最先端手法より優れている。
論文 参考訳(メタデータ) (2020-09-25T03:09:54Z) - Job2Vec: Job Title Benchmarking with Collective Multi-View
Representation Learning [51.34011135329063]
Job Title Benchmarking (JTB) は、様々な企業で同様の専門知識を持つ職種をマッチングすることを目的としている。
従来のJTBのアプローチは主に手作業による市場調査に依存しており、それは高価で労働集約的である。
我々はJTBをジョブ-グラフ上のリンク予測のタスクとして再編成し、ジョブタイトルにマッチするリンクはリンクを持つべきである。
論文 参考訳(メタデータ) (2020-09-16T02:33:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。