論文の概要: LLM4Jobs: Unsupervised occupation extraction and standardization
leveraging Large Language Models
- arxiv url: http://arxiv.org/abs/2309.09708v1
- Date: Mon, 18 Sep 2023 12:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:42:10.716278
- Title: LLM4Jobs: Unsupervised occupation extraction and standardization
leveraging Large Language Models
- Title(参考訳): LLM4ジョブ:大規模言語モデルを活用した教師なし職業抽出と標準化
- Authors: Nan Li, Bo Kang, Tijl De Bie
- Abstract要約: 本稿では,LLM4Jobsについて紹介する。LLM4Jobsは,大規模言語モデル(LLM)の職業的符号化能力を活用する,教師なしの方法論である。
合成および実世界のデータセット上で厳密な実験を行い、LLM4Jobsが教師なしの最先端ベンチマークを一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 14.847441358093866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated occupation extraction and standardization from free-text job
postings and resumes are crucial for applications like job recommendation and
labor market policy formation. This paper introduces LLM4Jobs, a novel
unsupervised methodology that taps into the capabilities of large language
models (LLMs) for occupation coding. LLM4Jobs uniquely harnesses both the
natural language understanding and generation capacities of LLMs. Evaluated on
rigorous experimentation on synthetic and real-world datasets, we demonstrate
that LLM4Jobs consistently surpasses unsupervised state-of-the-art benchmarks,
demonstrating its versatility across diverse datasets and granularities. As a
side result of our work, we present both synthetic and real-world datasets,
which may be instrumental for subsequent research in this domain. Overall, this
investigation highlights the promise of contemporary LLMs for the intricate
task of occupation extraction and standardization, laying the foundation for a
robust and adaptable framework relevant to both research and industrial
contexts.
- Abstract(参考訳): 職業推薦や労働市場政策形成などのアプリケーションには、フリーテキストの求人や履歴書からの職業の自動抽出と標準化が不可欠である。
本稿では,LLM4Jobsについて紹介する。LLM4Jobsは,大規模言語モデル(LLM)の職業的符号化能力を活用する,教師なしの方法論である。
LLM4JobsはLLMの自然言語理解と生成能力の両方を活用する。
合成および実世界のデータセットに対する厳密な実験を評価した結果、LLM4Jobsは教師なしの最先端ベンチマークを一貫して上回り、多様なデータセットや粒度にまたがる汎用性を実証した。
我々の研究の副産物として、この領域におけるその後の研究に役立つかもしれない合成データセットと実世界のデータセットを提示する。
全体として、この調査は、占領の抽出と標準化の複雑な作業に対する現代のLLMの約束を強調しており、研究と産業の文脈の両方に関連する堅牢で適応可能な枠組みの基礎を築いた。
関連論文リスト
- Large Language Models as Data Preprocessors [10.914067455923847]
OpenAIのGPTシリーズとMetaのLLaMAに代表されるLarge Language Models (LLMs)は、人工知能において大きな進歩を遂げている。
この研究は、LLMの応用を拡大し、データ前処理におけるその可能性を探る。
我々は,最先端のプロンプト技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z) - A Survey on Large Language Model based Autonomous Agents [107.8237473711049]
大規模言語モデル(LLM)は、人間レベルの知性を達成する上で、顕著な可能性を示している。
本稿では,LLMに基づく自律エージェントの分野を総合的な観点から体系的に検討する。
本稿では、社会科学、自然科学、工学の分野におけるLLMベースの自律エージェントの多様な応用について概観する。
論文 参考訳(メタデータ) (2023-08-22T13:30:37Z) - Large Language Models for Software Engineering: A Systematic Literature
Review [35.260023199700306]
大規模言語モデル(LLM)は、ソフトウェア工学(SE)を含む多くの領域に大きな影響を与えている。
我々は2017年から2023年までの229件の研究論文を収集し分析し、4つの重要な研究課題(RQ)に答える。
これらのRQに対する回答から、現在の最先端とトレンド、既存の研究のギャップの特定、今後の研究に向けた有望な領域のフラグ付けなどについて論じる。
論文 参考訳(メタデータ) (2023-08-21T10:37:49Z) - Through the Lens of Core Competency: Survey on Evaluation of Large
Language Models [27.271533306818732]
大規模言語モデル(LLM)は優れた性能と幅広い実用性を持っている。
既存の評価タスクは、現実世界のシナリオにおける幅広いアプリケーションに追いつくのは難しい。
LLMの4つのコア能力は、推論、知識、信頼性、安全性などである。
この能力アーキテクチャの下では、類似したタスクを組み合わせて対応する能力を反映し、新しいタスクをシステムに簡単に追加することができる。
論文 参考訳(メタデータ) (2023-08-15T17:40:34Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - Large Language Models as Counterfactual Generator: Strengths and
Weaknesses [13.38796575777584]
大規模言語モデル(LLM)は、自然言語の理解と生成タスクにおいて顕著な性能を示した。
本研究は,LLMの反実的生成能力と,この能力に影響を与える解析要因について検討することを目的とする。
論文 参考訳(メタデータ) (2023-05-24T06:44:32Z) - Multi-Task Instruction Tuning of LLaMa for Specific Scenarios: A
Preliminary Study on Writing Assistance [52.15086588105912]
ChatGPTとGPT-4は学術界と産業界の両方からかなりの関心を集めている。
最近の研究は、数組の命令駆動データで微調整された後、最近提案されたLLM LLaMaは、幅広いタスクに対処する印象的な能力を示していることを示している。
論文 参考訳(メタデータ) (2023-05-22T16:56:44Z) - Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond [48.70557995528463]
このガイドは、研究者や実践者が大規模言語モデルを扱うための貴重な洞察とベストプラクティスを提供することを目的としている。
実世界のシナリオにおける LLM の実用的応用と限界を説明するために, 様々なユースケースと非利用事例を提示する。
論文 参考訳(メタデータ) (2023-04-26T17:52:30Z) - ElitePLM: An Empirical Study on General Language Ability Evaluation of
Pretrained Language Models [78.08792285698853]
本稿では,事前学習型言語モデル(ElitePLM)の汎用言語能力評価に関する大規模実証的研究について述べる。
実験の結果,(1)訓練対象の異なるPLMは異なる能力試験に適しており,(2)下流タスクの微調整PLMはデータサイズや分布に敏感であり,(3)PLMは類似タスク間の転送性に優れていた。
論文 参考訳(メタデータ) (2022-05-03T14:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。