論文の概要: Entity Linking in the Job Market Domain
- arxiv url: http://arxiv.org/abs/2401.17979v1
- Date: Wed, 31 Jan 2024 16:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 13:52:20.468938
- Title: Entity Linking in the Job Market Domain
- Title(参考訳): ジョブマーケットドメインにおけるエンティティリンク
- Authors: Mike Zhang and Rob van der Goot and Barbara Plank
- Abstract要約: エンティティリンク (EL) はウィキペディアを中心にしているが、求人市場領域では未検討である。
本研究では,この領域でELを初めて探求し,特に職業スキルとESCO分類の関連性に着目した。
ハイパフォーマンスな2つのニューラルELモデルをチューニングし、人間の注釈付きスキルリンクベンチマークで評価する。
- 参考スコア(独自算出の注目度): 40.23705539284729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Natural Language Processing, entity linking (EL) has centered around
Wikipedia, but yet remains underexplored for the job market domain.
Disambiguating skill mentions can help us get insight into the current labor
market demands. In this work, we are the first to explore EL in this domain,
specifically targeting the linkage of occupational skills to the ESCO taxonomy
(le Vrang et al., 2014). Previous efforts linked coarse-grained (full)
sentences to a corresponding ESCO skill. In this work, we link more
fine-grained span-level mentions of skills. We tune two high-performing neural
EL models, a bi-encoder (Wu et al., 2020) and an autoregressive model (Cao et
al., 2021), on a synthetically generated mention--skill pair dataset and
evaluate them on a human-annotated skill-linking benchmark. Our findings reveal
that both models are capable of linking implicit mentions of skills to their
correct taxonomy counterparts. Empirically, BLINK outperforms GENRE in strict
evaluation, but GENRE performs better in loose evaluation (accuracy@$k$).
- Abstract(参考訳): 自然言語処理では、エンティティリンク(EL)はウィキペディアを中心にしているが、まだ求人市場領域では未熟である。
あいまいなスキルの言及は、現在の労働市場の要求を理解するのに役立ちます。
本研究では,この領域でELを初めて探求し,特に職業スキルとESCO分類の連携を目標にしている(le Vrang et al., 2014)。
それまでの努力は、粗い(完全な)文と対応するESCOスキルを結びつけていた。
この作業では、よりきめ細かいスパンレベルのスキルの言及をリンクします。
2つの高パフォーマンスニューラルelモデル,bi-encoder (wu et al., 2020) と自己回帰モデル (cao et al., 2021) を合成生成したメンションスキルペアデータセットにチューニングし,人間によるスキルリンクベンチマークで評価する。
以上の結果から,両モデルとも,スキルの暗黙的な言及を正しい分類基準にリンクできることがわかった。
BLINK は厳密な評価では GENRE より優れているが、 GENRE は緩やかな評価(accuracy@$k$)では GENRE の方が優れている。
関連論文リスト
- NeKo: Toward Post Recognition Generative Correction Large Language Models with Task-Oriented Experts [57.53692236201343]
提案するマルチタスク補正MOEでは,専門家が音声・テキスト・言語・テキスト・視覚・テキスト・データセットの「専門家」になるよう訓練する。
NeKoはマルチタスクモデルとして文法とポストOCR補正を競合的に実行している。
論文 参考訳(メタデータ) (2024-11-08T20:11:24Z) - Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Rethinking Skill Extraction in the Job Market Domain using Large
Language Models [20.256353240384133]
スキル抽出は、仕事の投稿や履歴書などの文書で言及されているスキルと資格を識別する。
手動でアノテートしたデータへの依存は、そのようなアプローチの一般化可能性を制限する。
本稿では,これらの課題を克服するための文脈内学習の活用について検討する。
論文 参考訳(メタデータ) (2024-02-06T09:23:26Z) - Instructed Language Models with Retrievers Are Powerful Entity Linkers [87.16283281290053]
Instructed Generative Entity Linker (INSGENEL)は、カジュアル言語モデルが知識ベース上でエンティティリンクを実行することを可能にする最初のアプローチである。
INSGENEL は、+6.8 F1 点が平均的に上昇する以前の生成的代替よりも優れていた。
論文 参考訳(メタデータ) (2023-11-06T16:38:51Z) - Skill-Mix: a Flexible and Expandable Family of Evaluations for AI models [50.11814354654953]
AIエージェントの主な能力は、必要に応じて、学習した基本的なスキルを柔軟に組み合わせることである。
この研究は、スキルを組み合わせる能力を測定するための新しい評価であるSkill-Mixを導入している。
論文 参考訳(メタデータ) (2023-10-26T16:55:05Z) - Large Language Models as Batteries-Included Zero-Shot ESCO Skills
Matchers [0.0]
大規模言語モデル(LLM)に基づくジョブ記述からスキル抽出のためのエンドツーエンドゼロショットシステムを提案する。
ESCOのスキル全体に関する総合的なトレーニングデータを生成し,求職者からのスキル言及を抽出するために分類器を訓練する。
また、類似性検索を用いてスキル候補を生成し、第2のLCMを用いて再ランク付けする。
論文 参考訳(メタデータ) (2023-07-07T12:04:12Z) - IRT2: Inductive Linking and Ranking in Knowledge Graphs of Varying Scale [1.3621712165154805]
産業用ユースケースのためのドメイン固有の知識モデルを構築するという課題に対処する。
我々の焦点は、実用的なツールの基礎となる帰納的リンク予測モデルである。
論文 参考訳(メタデータ) (2023-01-02T15:19:21Z) - UU-Tax at SemEval-2022 Task 3: Improving the generalizability of
language models for taxonomy classification through data augmentation [0.0]
本稿では,SemEval-2022 Task 3 PreTENS: Presuposed Taxonomies Evaluation Neural Network Semanticsについて述べる。
タスクの目標は、文に含まれる名詞対の間の分類学的関係によって、ある文が受け入れられているか否かを識別することである。
より優れた分類のための言語モデルの堅牢性と一般化性を高める効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-10-07T07:41:28Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - SkillSpan: Hard and Soft Skill Extraction from English Job Postings [16.490047604583882]
14.5K文と12.5Kスパンからなる新しいSEデータセットであるSKILLSPANを紹介する。
ドメインの専門家によるハードとソフトのスキルに注釈を付けた3つの異なるソースで作成されたガイドラインをリリースします。
その結果、ドメイン適応モデルは非適応モデルよりも大幅に優れ、シングルタスクはマルチタスク学習よりも優れていた。
論文 参考訳(メタデータ) (2022-04-27T10:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。