論文の概要: A Comprehensive Survey on Process-Oriented Automatic Text Summarization
with Exploration of LLM-Based Methods
- arxiv url: http://arxiv.org/abs/2403.02901v1
- Date: Tue, 5 Mar 2024 12:11:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:11:53.111611
- Title: A Comprehensive Survey on Process-Oriented Automatic Text Summarization
with Exploration of LLM-Based Methods
- Title(参考訳): LLM法によるプロセス指向自動テキスト要約に関する総合的研究
- Authors: Hanlei Jin, Yang Zhang, Dan Meng, Jun Wang, Jinghua Tan
- Abstract要約: 自動テキスト要約(ATS)は、簡潔で正確な要約を作成することを目的としている。
ATSは学術界と産業界の両方に大きな関心を集めている。
- 参考スコア(独自算出の注目度): 15.793170229381456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic Text Summarization (ATS), utilizing Natural Language Processing
(NLP) algorithms, aims to create concise and accurate summaries, thereby
significantly reducing the human effort required in processing large volumes of
text. ATS has drawn considerable interest in both academic and industrial
circles. Many studies have been conducted in the past to survey ATS methods;
however, they generally lack practicality for real-world implementations, as
they often categorize previous methods from a theoretical standpoint. Moreover,
the advent of Large Language Models (LLMs) has altered conventional ATS
methods. In this survey, we aim to 1) provide a comprehensive overview of ATS
from a ``Process-Oriented Schema'' perspective, which is best aligned with
real-world implementations; 2) comprehensively review the latest LLM-based ATS
works; and 3) deliver an up-to-date survey of ATS, bridging the two-year gap in
the literature. To the best of our knowledge, this is the first survey to
specifically investigate LLM-based ATS methods.
- Abstract(参考訳): 自然言語処理(NLP)アルゴリズムを利用した自動テキスト要約(ATS)は、簡潔で正確な要約を作ることを目的としており、大量のテキストを処理するのに必要な人的労力を大幅に削減する。
ATSは学術界と産業界の両方に大きな関心を集めている。
ATS法についてはこれまで多くの研究が行われてきたが、理論的な観点から従来の手法を分類することが多いため、現実的な実装の実践性に欠けることが多い。
さらに、LLM(Large Language Models)の出現により、従来のATS法が変化した。
本調査では,本研究の目的について述べる。
1) 実世界の実装に最も適している ``Process-Oriented Schema'' の観点からのATSの概要を概観する。
2) 最新のLCMベースのATS作業の総合的なレビュー,及び
3) 文献の2年間のギャップを埋めて, ATSの最新の調査を行う。
我々の知る限りでは、LSMに基づくATS法を特に調査するのはこれが初めてである。
関連論文リスト
- Scaling Up Summarization: Leveraging Large Language Models for Long Text Extractive Summarization [0.27624021966289597]
本稿では,Large Language Models (LLM) を利用した抽出要約フレームワークであるEYEGLAXSを紹介する。
EYEGLAXSは、事実的および文法的整合性を保証するために抽出的な要約に焦点を当てている。
このシステムはPubMedやArXivといった有名なデータセットに新しいパフォーマンスベンチマークを設定する。
論文 参考訳(メタデータ) (2024-08-28T13:52:19Z) - A Systematic Survey of Text Summarization: From Statistical Methods to Large Language Models [43.37740735934396]
テキスト要約研究は、ディープニューラルネットワーク、事前学習言語モデル(PLM)、最近の大規模言語モデル(LLM)の出現により、いくつかの重要な変換が行われた。
この調査は、これらのパラダイムシフトのレンズを通して、テキスト要約における研究の進展と進化を包括的にレビューする。
論文 参考訳(メタデータ) (2024-06-17T07:52:32Z) - RepEval: Effective Text Evaluation with LLM Representation [55.26340302485898]
RepEvalは、評価のためにLarge Language Models(LLM)表現の投影を利用するメトリクスである。
我々の研究は、LLM表現に埋め込まれたテキスト品質に関する情報の豊かさを強調し、新しいメトリクスの開発のための洞察を提供する。
論文 参考訳(メタデータ) (2024-04-30T13:50:55Z) - Automating Research Synthesis with Domain-Specific Large Language Model Fine-Tuning [0.9110413356918055]
本研究は,SLR(Systematic Literature Reviews)の自動化にLLM(Funture-Tuned Large Language Models)を用いた先駆的研究である。
本研究は,オープンソースLLMとともに最新の微調整手法を採用し,SLRプロセスの最終実行段階を自動化するための実用的で効率的な手法を実証した。
その結果, LLM応答の精度は高く, 既存のPRISMAコンフォーミングSLRの複製により検証された。
論文 参考訳(メタデータ) (2024-04-08T00:08:29Z) - Benchmarking LLMs on the Semantic Overlap Summarization Task [9.656095701778975]
本稿では,セマンティック・オーバーラップ・サマリゼーション(SOS)タスクにおいて,Large Language Models (LLM) を包括的に評価する。
本稿では, ROUGE, BERTscore, SEM-F1$などの定評ある指標を, 2種類の代替物語のデータセット上で報告する。
論文 参考訳(メタデータ) (2024-02-26T20:33:50Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Evaluating Factual Consistency of Summaries with Large Language Models [24.416837319515896]
大規模言語モデル(LLM)の直接的推進による要約の事実整合性の評価について検討する。
実験により, LLM のプロンプトは, 全ての設定において, 過去の最良事実性システムより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-23T13:48:32Z) - Information Extraction in Low-Resource Scenarios: Survey and Perspective [56.5556523013924]
情報抽出は構造化されていないテキストから構造化された情報を導き出そうとする。
本稿では,emphLLMおよびemphLLMに基づく低リソースIEに対するニューラルアプローチについて概説する。
論文 参考訳(メタデータ) (2022-02-16T13:44:00Z) - A Survey on Temporal Sentence Grounding in Videos [69.13365006222251]
ビデオ(TSGV)における時間的文グラウンドングは、与えられた文クエリに関する未編集ビデオから1つのターゲットセグメントをローカライズすることを目的としている。
我々の知る限りでは、これは時間的文接地に関する最初の体系的な調査である。
論文 参考訳(メタデータ) (2021-09-16T15:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。