論文の概要: ResumeFlow: An LLM-facilitated Pipeline for Personalized Resume
Generation and Refinement
- arxiv url: http://arxiv.org/abs/2402.06221v1
- Date: Fri, 9 Feb 2024 07:13:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 17:38:49.025362
- Title: ResumeFlow: An LLM-facilitated Pipeline for Personalized Resume
Generation and Refinement
- Title(参考訳): resumeflow: パーソナライズされた履歴生成とリファインメントのためのllm-facilitated pipeline
- Authors: Saurabh Bhausaheb Zinjad, Amrita Bhattacharjee, Amey Bhilegaonkar,
Huan Liu
- Abstract要約: ResumeFlow:Large Language Model(LLM)支援ツールを提案する。
提案するパイプラインは,OpenAIのGPT-4やGoogleのGeminiといった最先端LLMの言語理解と情報抽出機能を活用している。
我々の使い勝手の良いツールは、完全にオフ・ザ・シェルフ方式のユーザ・コッセン・LLMを利用しており、微調整は不要である。
- 参考スコア(独自算出の注目度): 15.342415325821063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crafting the ideal, job-specific resume is a challenging task for many job
applicants, especially for early-career applicants. While it is highly
recommended that applicants tailor their resume to the specific role they are
applying for, manually tailoring resumes to job descriptions and role-specific
requirements is often (1) extremely time-consuming, and (2) prone to human
errors. Furthermore, performing such a tailoring step at scale while applying
to several roles may result in a lack of quality of the edited resumes. To
tackle this problem, in this demo paper, we propose ResumeFlow: a Large
Language Model (LLM) aided tool that enables an end user to simply provide
their detailed resume and the desired job posting, and obtain a personalized
resume specifically tailored to that specific job posting in the matter of a
few seconds. Our proposed pipeline leverages the language understanding and
information extraction capabilities of state-of-the-art LLMs such as OpenAI's
GPT-4 and Google's Gemini, in order to (1) extract details from a job
description, (2) extract role-specific details from the user-provided resume,
and then (3) use these to refine and generate a role-specific resume for the
user. Our easy-to-use tool leverages the user-chosen LLM in a completely
off-the-shelf manner, thus requiring no fine-tuning. We demonstrate the
effectiveness of our tool via a video demo and propose novel task-specific
evaluation metrics to control for alignment and hallucination. Our tool is
available at https://job-aligned-resume.streamlit.app.
- Abstract(参考訳): 理想的な仕事に特化した履歴書を作成することは、多くの求職者、特にアーリーケア申請者にとって難しい課題である。
応募者は求職する特定の役割に履歴を合わせることが推奨されるが、仕事の説明や役割固有の要件に履歴を手動で調整することは、(1)非常に時間がかかり、(2)人的誤りが生じることが多い。
さらに、いくつかの役割に応用しながら、大規模な調整を行うと、編集された履歴書の品質が欠落する可能性がある。
この問題に対処するため,本論文では,エンドユーザが詳細な履歴書と所望のジョブ投稿を簡単に提供し,その特定のジョブ投稿に適したパーソナライズされた履歴書を数秒で取得できる,ResumeFlow: A Large Language Model (LLM)支援ツールを提案する。
提案するパイプラインは,OpenAIのGPT-4やGoogleのGeminiといった最先端LLMの言語理解と情報抽出機能を活用し,(1)ジョブ記述から詳細を抽出し,(2)ユーザが提供する履歴書から役割固有の詳細を抽出し,(3)ユーザに対して役割固有の履歴書を洗練・生成する。
我々の使い勝手の良いツールは、完全にオフ・ザ・シェルフ方式のユーザ・コッセン・LLMを利用しており、微調整は不要である。
本稿では,ビデオデモを通じてツールの有効性を実証し,アライメントと幻覚の制御のためのタスク固有の評価指標を提案する。
私たちのツールはhttps://job-aligned-resume.streamlit.appで利用可能です。
関連論文リスト
- ConFit: Improving Resume-Job Matching using Data Augmentation and
Contrastive Learning [20.599962663046007]
データ拡張と単純なコントラスト学習アプローチを用いて,空間性問題に対処する。
ConFitはまず、履歴書またはジョブポストの特定のセクションを言い換えることで、拡張された履歴書ジョブデータセットを作成する。
実世界の2つのデータセット上でConFitを評価し,ジョブとランキング履歴のランキングでは,それぞれnDCG@10で31%,絶対値で先行手法よりも優れていた。
論文 参考訳(メタデータ) (2024-01-29T17:55:18Z) - Distilling Large Language Models using Skill-Occupation Graph Context
for HR-Related Tasks [8.235367170516769]
幅広いHRタスクに対応するためにResume-Job Description Benchmark (RJDB)を導入する。
私たちのベンチマークには、ジョブ記述、マッチした履歴書、未一致の履歴書が5万件以上含まれています。
実験の結果,学生モデルは教師モデル(GPT-4)よりも近・近性能が得られ,ベンチマークの有効性が確認された。
論文 参考訳(メタデータ) (2023-11-10T20:25:42Z) - Eliciting Human Preferences with Language Models [56.68637202313052]
言語モデル(LM)は、ラベル付き例や自然言語のプロンプトを使用してターゲットタスクを実行するように指示することができる。
タスク仕様プロセスのガイドには*LM自身を使うことを提案します。
我々は、メール検証、コンテンツレコメンデーション、道徳的推論の3つの領域でGATEを研究している。
論文 参考訳(メタデータ) (2023-10-17T21:11:21Z) - JobRecoGPT -- Explainable job recommendations using LLMs [1.6317061277457001]
大規模言語モデル(LLM)は、テキストベースのデータが利用可能な分野において、異常なパフォーマンスでAI分野を席巻した。
そこで本研究では,求人推薦のための4つのアプローチのパフォーマンスを比較した。
論文 参考訳(メタデータ) (2023-09-21T06:25:28Z) - Multi-Task Instruction Tuning of LLaMa for Specific Scenarios: A
Preliminary Study on Writing Assistance [60.40541387785977]
小さな基礎モデルは、命令駆動データを用いて微調整された場合、多様なタスクに対処する際、顕著な習熟度を示すことができる。
本研究は, 汎用的な指導よりも, 1つないし数つの特定のタスクに主眼を置いている, 実践的な問題設定について検討する。
実験結果から,命令データに対する微調整LLaMAは,タスクの記述能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-05-22T16:56:44Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - JobHam-place with smart recommend job options and candidate filtering
options [0.0]
ジョブレコメンデーションとCVランキングは自動キーワード抽出から始まり、Job/CVランキングアルゴリズムで終わる。
Job2SkillはテキストエンコーダとGruベースのレイヤの2つのコンポーネントで構成されている。
ジョブ/CVランキングアルゴリズムは、TFIDFスコアと全スキルナンバーのマッチング比に基づいて、スキルワードの発生率を算出する。
論文 参考訳(メタデータ) (2023-03-31T09:54:47Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - AdaPrompt: Adaptive Model Training for Prompt-based NLP [77.12071707955889]
PLMの継続事前学習のための外部データを適応的に検索するAdaPromptを提案する。
5つのNLPベンチマークの実験結果から、AdaPromptは数ショット設定で標準PLMよりも改善可能であることが示された。
ゼロショット設定では、標準のプロンプトベースの手法を26.35%の相対誤差削減で上回ります。
論文 参考訳(メタデータ) (2022-02-10T04:04:57Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z) - Learning Effective Representations for Person-Job Fit by Feature Fusion [4.884826427985207]
Person-job fitは、機械学習アルゴリズムを使用して、オンライン採用プラットフォーム上の候補者と求職者をマッチングする。
本稿では,機能融合による候補者と求職者の包括的かつ効果的な表現を学習することを提案する。
10ヶ月にわたる実データ実験により、我々のソリューションは既存の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-06-12T09:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。