論文の概要: Abstractive Text Summarization for Resumes With Cutting Edge NLP
Transformers and LSTM
- arxiv url: http://arxiv.org/abs/2306.13315v1
- Date: Fri, 23 Jun 2023 06:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 13:37:17.910595
- Title: Abstractive Text Summarization for Resumes With Cutting Edge NLP
Transformers and LSTM
- Title(参考訳): カットエッジNLP変換器とLSTMを用いたテキスト要約
- Authors: \"Oyk\"u Berfin Mercan, Sena Nur Cavsak, Aysu Deliahmetoglu (Intern),
Senem Tanberk
- Abstract要約: LSTM、事前訓練されたモデル、微調整されたモデルは履歴書のデータセットを用いて評価された。
履歴データセットを微調整したBART-Largeモデルは最高の性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text summarization is a fundamental task in natural language processing that
aims to condense large amounts of textual information into concise and coherent
summaries. With the exponential growth of content and the need to extract key
information efficiently, text summarization has gained significant attention in
recent years. In this study, LSTM and pre-trained T5, Pegasus, BART and
BART-Large model performances were evaluated on the open source dataset (Xsum,
CNN/Daily Mail, Amazon Fine Food Review and News Summary) and the prepared
resume dataset. This resume dataset consists of many information such as
language, education, experience, personal information, skills, and this data
includes 75 resumes. The primary objective of this research was to classify
resume text. Various techniques such as LSTM, pre-trained models, and
fine-tuned models were assessed using a dataset of resumes. The BART-Large
model fine-tuned with the resume dataset gave the best performance.
- Abstract(参考訳): テキスト要約は、大量のテキスト情報を簡潔でコヒーレントな要約に凝縮することを目的とした自然言語処理の基本的なタスクである。
コンテンツの指数的増加とキー情報を効率的に抽出する必要性により,近年,テキスト要約が注目されている。
本研究では,オープンソースデータセット(Xsum,CNN/Daily Mail,Amazon Fine Food Review,News Summary)とプレトレーニング済みT5,Pegasus,BART,BART-Largeモデルのパフォーマンスを評価した。
この履歴データセットは、言語、教育、経験、個人情報、スキルなどの多くの情報で構成されており、このデータは75の履歴書を含んでいる。
本研究の目的は履歴文の分類であった。
LSTM、事前訓練モデル、微調整モデルなどの様々な手法を履歴書のデータセットを用いて評価した。
履歴データセットを微調整したBART-Largeモデルは最高の性能を示した。
関連論文リスト
- Resume Information Extraction via Post-OCR Text Processing [0.0]
光文字認識などの前処理後に、すべてのテキストグループを分類することで、情報を抽出することを目的としている。
テキストデータセットは、IT業界で5つの異なるジョブ記述のために収集された286の履歴書で構成されている。
オブジェクト認識用に作成されたデータセットは1198の履歴書で構成されており、これはオープンソースのインターネットから収集され、テキストのセットとしてラベル付けされている。
論文 参考訳(メタデータ) (2023-06-23T20:14:07Z) - Controlled Text Reduction [15.102190738450092]
textitControlled Text Reduction をスタンドアロンタスクとして形式化する。
モデルでは、対象情報すべてと対象情報のみを含む一貫性のあるテキストを生成する必要がある。
論文 参考訳(メタデータ) (2022-10-24T17:59:03Z) - Construction of English Resume Corpus and Test with Pre-trained Language
Models [0.0]
本研究では,履歴書の情報抽出タスクを簡単な文分類タスクに変換することを目的とする。
分類規則は、履歴書のより大きくよりきめ細かな分類データセットを作成するために改善される。
このコーパスは、現在の主要なプレトレーニング言語モデル(PLM)のパフォーマンスをテストするためにも使われる。
論文 参考訳(メタデータ) (2022-08-05T15:07:23Z) - Curriculum-Based Self-Training Makes Better Few-Shot Learners for
Data-to-Text Generation [56.98033565736974]
テキスト生成の困難さによって決定される並べ替え順序でラベルのないデータを活用するために,カリキュラムベースの自己学習(CBST)を提案する。
提案手法は、微調整およびタスク適応型事前学習法より優れており、データ・テキスト・ジェネレーションのわずかな設定で最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2022-06-06T16:11:58Z) - Zero-Shot Information Extraction as a Unified Text-to-Triple Translation [56.01830747416606]
我々は、テキストから3つの翻訳フレームワークに一連の情報抽出タスクを投入した。
タスク固有の入力テキストと出力トリプルの変換としてタスクを形式化する。
本稿では,オープン情報抽出におけるゼロショット性能について検討する。
論文 参考訳(メタデータ) (2021-09-23T06:54:19Z) - Topic Modeling Based Extractive Text Summarization [0.0]
本稿では,潜在トピックに基づいて内容をクラスタリングすることで,テキストを要約する新しい手法を提案する。
我々は、テキスト要約へのアプローチにおいて、より使用量が少なく挑戦的なWikiHowデータセットを活用している。
論文 参考訳(メタデータ) (2021-06-29T12:28:19Z) - Leveraging ParsBERT and Pretrained mT5 for Persian Abstractive Text
Summarization [1.0742675209112622]
本稿では,ペルシャ抽象テキスト要約のための新しいデータセットpn-summaryについて紹介する。
本論文で用いるモデルはmT5とParsBERTモデルのエンコーダデコーダ版である。
論文 参考訳(メタデータ) (2020-12-21T09:35:52Z) - KGPT: Knowledge-Grounded Pre-Training for Data-to-Text Generation [100.79870384880333]
知識に富んだテキストを生成するための知識基盤事前学習(KGPT)を提案する。
我々は、その効果を評価するために、3つの設定、すなわち、完全教師付き、ゼロショット、少数ショットを採用します。
ゼロショット設定では、WebNLG上で30 ROUGE-L以上を達成するが、他の全てのベースラインは失敗する。
論文 参考訳(メタデータ) (2020-10-05T19:59:05Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。