論文の概要: Understanding and Modeling Job Marketplace with Pretrained Language Models
- arxiv url: http://arxiv.org/abs/2408.04381v1
- Date: Thu, 08 Aug 2024 11:35:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 18:21:48.959826
- Title: Understanding and Modeling Job Marketplace with Pretrained Language Models
- Title(参考訳): 事前学習型言語モデルによるジョブマーケットプレースの理解とモデル化
- Authors: Yaochen Zhu, Liang Wu, Binchi Zhang, Song Wang, Qi Guo, Liangjie Hong, Luke Simon, Jundong Li,
- Abstract要約: ジョブマーケットプレース(Job marketplace)は、メンバー(ジョブ・シーカー)、企業、およびジョブ間のインタラクションで構成される異質なグラフである。
既存のグラフニューラルネットワーク(GNN)に基づく手法は、関連するテキストの特徴と異種関係の理解が浅い。
PLM4Jobは、事前学習言語モデル(PLM)とジョブ市場グラフを密結合した求人市場基盤モデルである。
- 参考スコア(独自算出の注目度): 46.05972662117288
- License:
- Abstract: Job marketplace is a heterogeneous graph composed of interactions among members (job-seekers), companies, and jobs. Understanding and modeling job marketplace can benefit both job seekers and employers, ultimately contributing to the greater good of the society. However, existing graph neural network (GNN)-based methods have shallow understandings of the associated textual features and heterogeneous relations. To address the above challenges, we propose PLM4Job, a job marketplace foundation model that tightly couples pretrained language models (PLM) with job market graph, aiming to fully utilize the pretrained knowledge and reasoning ability to model member/job textual features as well as various member-job relations simultaneously. In the pretraining phase, we propose a heterogeneous ego-graph-based prompting strategy to model and aggregate member/job textual features based on the topological structure around the target member/job node, where entity type embeddings and graph positional embeddings are introduced accordingly to model different entities and their heterogeneous relations. Meanwhile, a proximity-aware attention alignment strategy is designed to dynamically adjust the attention of the PLM on ego-graph node tokens in the prompt, such that the attention can be better aligned with job marketplace semantics. Extensive experiments at LinkedIn demonstrate the effectiveness of PLM4Job.
- Abstract(参考訳): ジョブマーケットプレース(Job marketplace)は、メンバー(ジョブ・シーカー)、企業、およびジョブ間のインタラクションで構成される異質なグラフである。
求職者と雇用主の両方にとって、求職市場を理解し、モデル化することは、最終的に社会のより大きな利益に寄与する。
しかし、既存のグラフニューラルネットワーク(GNN)に基づく手法は、関連するテキストの特徴と異種関係の理解が浅い。
上記の課題に対処するため,PLM4Jobは,事前学習言語モデル(PLM)と求人市場グラフを密に結合した求人市場基盤モデルである。
事前学習フェーズでは,対象メンバー/ジョブノード周辺のトポロジ構造に基づいて,対象メンバー/ジョブのテキスト特徴をモデル化・集約するヘテロジニアスなエゴグラフベースのプロンプト戦略を提案する。
一方、近接認識型アライメント戦略は、プロンプト内のエゴグラフノードトークン上でのPLMのアライメントを動的に調整し、ジョブのマーケットプレースセマンティクスに適合するように設計されている。
LinkedInでの大規模な実験は、PLM4Jobの有効性を実証している。
関連論文リスト
- Towards Graph Foundation Models: The Perspective of Zero-shot Reasoning on Knowledge Graphs [14.392577069212292]
我々は、ゼロショット学習を用いて、多様なグラフタスクを効果的に一般化する統合グラフ推論フレームワークSCOREを紹介する。
SCOREを38種類のグラフデータセットを用いて評価し、ノードレベル、リンクレベル、グラフレベルのタスクを複数のドメインでカバーする。
論文 参考訳(メタデータ) (2024-10-16T14:26:08Z) - Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - An Interpretable Ensemble of Graph and Language Models for Improving
Search Relevance in E-Commerce [22.449320058423886]
プラグアンドプレイグラフLanguage Model (PP-GLAM) を提案する。
このアプローチでは、均一なデータ処理パイプラインを備えたモジュラーフレームワークを使用します。
PP-GLAMは,実世界のマルチリンガル,マルチリージョンのeコマースデータセット上で,最先端のベースラインとプロプライエタリなモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-01T19:08:25Z) - Professional Network Matters: Connections Empower Person-Job Fit [62.20651880558674]
本稿では,プロフェッショナルネットワークをPerson-Job Fitモデルに組み込むことの重要性を強調する。
CSAGNNにジョブ固有のアテンション機構を導入し、ノイズの多いプロフェッショナルネットワークを処理する。
提案手法の有効性を,LinkedInの3つの実世界の採用データセットを用いて実験的に評価することで実証する。
論文 参考訳(メタデータ) (2023-12-19T06:44:44Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - KGLM: Integrating Knowledge Graph Structure in Language Models for Link
Prediction [0.0]
我々は、異なるエンティティと関係型を区別することを学ぶ新しいエンティティ/リレーション埋め込み層を導入する。
知識グラフから抽出したトリプルを用いて、この追加埋め込み層を用いて言語モデルをさらに事前学習し、続いて標準微調整フェーズにより、ベンチマークデータセット上のリンク予測タスクに対して、新しい最先端のパフォーマンスが設定されることを示す。
論文 参考訳(メタデータ) (2022-11-04T20:38:12Z) - Mutual Graph Learning for Camouflaged Object Detection [31.422775969808434]
主な課題は、前景の物体と背景の環境との固有の類似性によって、深いモデルによって抽出された特徴が区別できないことである。
我々は,正規格子からグラフ領域への従来の相互学習の考え方を一般化する,新しい相互グラフ学習モデルを設計する。
すべてのタスク間インタラクションをモデリングするために共有関数を使用するほとんどの相互学習アプローチとは対照的に、mglは異なる補完関係を扱うための型付き関数を備えている。
論文 参考訳(メタデータ) (2021-04-03T10:14:39Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。