論文の概要: Rethinking Skill Extraction in the Job Market Domain using Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.03832v1
- Date: Tue, 6 Feb 2024 09:23:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 15:44:03.553729
- Title: Rethinking Skill Extraction in the Job Market Domain using Large
Language Models
- Title(参考訳): 大規模言語モデルを用いた雇用市場領域におけるスキル抽出の再考
- Authors: Khanh Cao Nguyen, Mike Zhang, Syrielle Montariol, Antoine Bosselut
- Abstract要約: スキル抽出は、仕事の投稿や履歴書などの文書で言及されているスキルと資格を識別する。
手動でアノテートしたデータへの依存は、そのようなアプローチの一般化可能性を制限する。
本稿では,これらの課題を克服するための文脈内学習の活用について検討する。
- 参考スコア(独自算出の注目度): 20.256353240384133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skill Extraction involves identifying skills and qualifications mentioned in
documents such as job postings and resumes. The task is commonly tackled by
training supervised models using a sequence labeling approach with BIO tags.
However, the reliance on manually annotated data limits the generalizability of
such approaches. Moreover, the common BIO setting limits the ability of the
models to capture complex skill patterns and handle ambiguous mentions. In this
paper, we explore the use of in-context learning to overcome these challenges,
on a benchmark of 6 uniformized skill extraction datasets. Our approach
leverages the few-shot learning capabilities of large language models (LLMs) to
identify and extract skills from sentences. We show that LLMs, despite not
being on par with traditional supervised models in terms of performance, can
better handle syntactically complex skill mentions in skill extraction tasks.
- Abstract(参考訳): スキル抽出は、仕事の投稿や履歴書などの文書で言及されているスキルと資格を識別する。
このタスクは、BIOタグを用いたシーケンスラベリングアプローチを使用して教師付きモデルをトレーニングすることで、一般的に取り組まれる。
しかし、手動でアノテートしたデータへの依存は、そのようなアプローチの一般化可能性を制限する。
さらに、共通のバイオ設定は、複雑なスキルパターンを捉えてあいまいな言及を処理できるモデルの能力を制限する。
本稿では,6つの統一スキル抽出データセットのベンチマークを用いて,これらの課題を克服するためのインコンテキスト学習の利用について検討する。
提案手法は,大規模言語モデル(LLM)の少数ショット学習機能を活用し,文からスキルを抽出する。
LLMは従来の教師付きモデルと性能的に同等ではないにもかかわらず、構文的に複雑なスキル記述をスキル抽出タスクでよりうまく扱えることを示す。
関連論文リスト
- Leveraging Open Knowledge for Advancing Task Expertise in Large Language Models [36.172093066234794]
オープンな知識を持つ大規模言語モデルのタスク専門性を向上させるために,人手によるサンプル(Kショット)を少数導入する。
複数の専門家の間で個別のyet-complementaryな知識を最大限に活用するために、Mixix-of-expert (MoE)システムを構築している。
論文 参考訳(メタデータ) (2024-08-28T16:28:07Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Computational Job Market Analysis with Natural Language Processing [5.117211717291377]
本論文は,業務記述から関連情報を抽出する自然言語処理(NLP)技術について考察する。
問題の枠組みを定め,注釈付きデータを取得し,抽出手法を導入する。
私たちのコントリビューションには、ジョブ記述データセット、非識別データセット、効率的なモデルトレーニングのための新しいアクティブラーニングアルゴリズムが含まれています。
論文 参考訳(メタデータ) (2024-04-29T14:52:38Z) - NNOSE: Nearest Neighbor Occupational Skill Extraction [55.22292957778972]
作業スキルデータセットの複雑さに対処する。
我々は、データセット統一方式で類似したスキルを検索するために、外部データストアを使用します。
我々は、データセット間設定において、頻度の低いパターンを予測し、最大30%のスパンF1で性能向上を観察する。
論文 参考訳(メタデータ) (2024-01-30T15:18:29Z) - SkillDiffuser: Interpretable Hierarchical Planning via Skill Abstractions in Diffusion-Based Task Execution [75.2573501625811]
拡散モデルは、ロボット軌道計画の強力な可能性を示している。
高レベルの命令からコヒーレントな軌道を生成することは依然として困難である。
エンド・ツー・エンドの階層的計画フレームワークであるSkillDiffuserを提案する。
論文 参考訳(メタデータ) (2023-12-18T18:16:52Z) - Extreme Multi-Label Skill Extraction Training using Large Language
Models [19.095612333241288]
本稿では,スキル抽出のための精度の高い完全合成ラベル付きデータセットを生成するための費用対効果のアプローチについて述べる。
以上の結果より,textitR-Precision@5では15~25ポイントの連続的な増加が見られた。
論文 参考訳(メタデータ) (2023-07-20T11:29:15Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - Design of Negative Sampling Strategies for Distantly Supervised Skill
Extraction [19.43668931500507]
本稿では,リテラルマッチングによる遠隔監視に基づく,スキル抽出のためのエンドツーエンドシステムを提案する。
ESCO分類を用いて、関連するスキルからネガティブな例を選択することで、最大の改善が得られます。
我々は,タスクのさらなる研究を促進するために,研究目的のベンチマークデータセットをリリースする。
論文 参考訳(メタデータ) (2022-09-13T13:37:06Z) - Skill Induction and Planning with Latent Language [94.55783888325165]
我々は、ゴールがハイレベルなサブタスク記述のシーケンスを生成するアクションシーケンスの生成モデルを定式化する。
本稿では、このモデルを、主に注釈のないデモを用いて、名前付きハイレベルなサブタスクのシーケンスに解析する方法について述べる。
訓練されたモデルでは、自然言語コマンドの空間はスキルのライブラリを索引付けする;エージェントはこれらのスキルを使って、新しい目標に適した高いレベルの命令シーケンスを生成する。
論文 参考訳(メタデータ) (2021-10-04T15:36:32Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。