論文の概要: Predicting Job Titles from Job Descriptions with Multi-label Text
Classification
- arxiv url: http://arxiv.org/abs/2112.11052v1
- Date: Tue, 21 Dec 2021 09:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:17:27.953054
- Title: Predicting Job Titles from Job Descriptions with Multi-label Text
Classification
- Title(参考訳): マルチラベルテキスト分類による仕事記述からの職名予測
- Authors: Hieu Trung Tran, Hanh Hong Phuc Vo, Son T. Luu
- Abstract要約: ジョブ記述テキストから関連職名を予測するための多ラベル分類手法を提案する。
本稿では,Bio-GRU-LSTM-CNNを各種事前学習言語モデルで実装し,職種予測問題に適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Finding a suitable job and hunting for eligible candidates are important to
job seeking and human resource agencies. With the vast information about job
descriptions, employees and employers need assistance to automatically detect
job titles based on job description texts. In this paper, we propose the
multi-label classification approach for predicting relevant job titles from job
description texts, and implement the Bi-GRU-LSTM-CNN with different pre-trained
language models to apply for the job titles prediction problem. The BERT with
multilingual pre-trained model obtains the highest result by F1-scores on both
development and test sets, which are 62.20% on the development set, and 47.44%
on the test set.
- Abstract(参考訳): 適職探しと適任候補者の探索は、職探しと人事機関にとって重要である。
ジョブ記述に関する膨大な情報により、従業員と雇用主は、ジョブ記述テキストに基づいてジョブタイトルを自動的に検出する支援が必要である。
本稿では,ジョブ記述テキストから関連するジョブタイトルを予測するためのマルチラベル分類手法を提案し,ジョブタイトル予測問題に適用可能な,異なる事前学習言語モデルを用いたbi-gru-lstm-cnnを実装した。
bert with multilingual pre-trained modelは、開発セットとテストセットの両方においてf1-scoreが62.20%、テストセットが47.44%で最高の結果を得る。
関連論文リスト
- TAROT: A Hierarchical Framework with Multitask Co-Pretraining on
Semi-Structured Data towards Effective Person-Job Fit [60.31175803899285]
本稿では,階層型マルチタスク協調訓練フレームワークであるTAROTを提案する。
TAROTは、プロファイルとジョブにおける半構造化テキストをターゲットにしており、取得したセマンティック情報を各レベルで制限するために、複数のきめ細かい事前訓練タスクと共に保持されている。
論文 参考訳(メタデータ) (2024-01-15T07:57:58Z) - Hierarchical Classification of Transversal Skills in Job Ads Based on
Sentence Embeddings [0.0]
本稿では,求人広告要件とスキルセットの相関関係をディープラーニングモデルを用いて同定することを目的とする。
このアプローチには、ESCO(European Skills, Competences, Occupations)分類を使用したデータ収集、事前処理、ラベル付けが含まれる。
論文 参考訳(メタデータ) (2024-01-10T11:07:32Z) - Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - VacancySBERT: the approach for representation of titles and skills for
semantic similarity search in the recruitment domain [0.0]
本稿では、HRドメインに適用されたディープラーニングセマンティックサーチアルゴリズムに焦点を当てた。
この記事の目的は、求人広告で言及されているスキルとタイトルを結びつけるために、シームズネットワークをトレーニングする新しいアプローチを開発することである。
論文 参考訳(メタデータ) (2023-07-31T13:21:15Z) - Learning Job Titles Similarity from Noisy Skill Labels [0.11498015270151059]
職名間のセマンティックな類似度を測定することは、仕事の自動推薦に不可欠な機能である。
本稿では,ノイズのあるスキルラベルを用いた職名類似性モデルの訓練のための教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-01T15:30:10Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Improving Multi-task Generalization Ability for Neural Text Matching via
Prompt Learning [54.66399120084227]
最近の最先端のニューラルテキストマッチングモデル(PLM)は、様々なタスクに一般化することが難しい。
我々は、特殊化一般化訓練戦略を採用し、それをMatch-Promptと呼ぶ。
特殊化段階では、異なるマッチングタスクの記述はいくつかのプロンプトトークンにマッピングされる。
一般化段階において、テキストマッチングモデルは、多種多様なマッチングタスクを訓練することにより、本質的なマッチング信号を探索する。
論文 参考訳(メタデータ) (2022-04-06T11:01:08Z) - JobBERT: Understanding Job Titles through Skills [12.569546741576515]
ジョブタイトルは、今日の人事(人事)プロセスの基盤を形成します。
ジョブタイトルはコンパクトで便利で、簡単に利用できるデータソースです。
本稿では,空き地から抽出したスキルラベルからの共起情報を事前学習した言語モデルに付加することにより,求職者のニューラル表現モデルを提案する。
論文 参考訳(メタデータ) (2021-09-20T15:00:10Z) - Job2Vec: Job Title Benchmarking with Collective Multi-View
Representation Learning [51.34011135329063]
Job Title Benchmarking (JTB) は、様々な企業で同様の専門知識を持つ職種をマッチングすることを目的としている。
従来のJTBのアプローチは主に手作業による市場調査に依存しており、それは高価で労働集約的である。
我々はJTBをジョブ-グラフ上のリンク予測のタスクとして再編成し、ジョブタイトルにマッチするリンクはリンクを持つべきである。
論文 参考訳(メタデータ) (2020-09-16T02:33:32Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。