論文の概要: Extractive Summarization via ChatGPT for Faithful Summary Generation
- arxiv url: http://arxiv.org/abs/2304.04193v1
- Date: Sun, 9 Apr 2023 08:26:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 17:10:31.305399
- Title: Extractive Summarization via ChatGPT for Faithful Summary Generation
- Title(参考訳): 忠実な要約生成のためのChatGPTによる抽出要約
- Authors: Haopeng Zhang, Xiao Liu, Jiawei Zhang
- Abstract要約: 最近のChatGPTの導入はNLPコミュニティに大きな関心を集めている。
本稿ではまず,ChatGPTの抽出要約における性能の徹底的な評価について述べる。
さらに,その性能向上のための文脈内学習と連鎖推論の有効性について検討した。
- 参考スコア(独自算出の注目度): 14.930704950433324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extractive summarization is a crucial task in natural language processing
that aims to condense long documents into shorter versions by directly
extracting sentences. The recent introduction of ChatGPT has attracted
significant interest in the NLP community due to its remarkable performance on
a wide range of downstream tasks. However, concerns regarding factuality and
faithfulness have hindered its practical applications for summarization
systems. This paper first presents a thorough evaluation of ChatGPT's
performance on extractive summarization and compares it with traditional
fine-tuning methods on various benchmark datasets. Our experimental analysis
reveals that ChatGPT's extractive summarization performance is still inferior
to existing supervised systems in terms of ROUGE scores. In addition, we
explore the effectiveness of in-context learning and chain-of-thought reasoning
for enhancing its performance. Furthermore, we find that applying an
extract-then-generate pipeline with ChatGPT yields significant performance
improvements over abstractive baselines in terms of summary faithfulness. These
observations highlight potential directions for enhancing ChatGPT's
capabilities for faithful text summarization tasks using two-stage approaches.
- Abstract(参考訳): 抽出要約は自然言語処理において重要な課題であり,文を直接抽出することで,長い文書を短いバージョンにまとめることを目的としている。
最近のChatGPTの導入は、幅広い下流タスクにおける顕著なパフォーマンスのために、NLPコミュニティに大きな関心を集めている。
しかし、事実性や忠実性に関する懸念が要約システムへの実践的応用を妨げている。
本稿ではまず,ChatGPTの抽出要約における性能を徹底的に評価し,様々なベンチマークデータセットにおける従来の微調整手法と比較する。
実験により,ChatGPTの抽出要約性能は,ROUGEスコアの点で既存の教師システムに劣っていることが明らかとなった。
さらに,その性能向上のための文脈内学習と連鎖推論の有効性について検討した。
さらに,ChatGPTを用いた抽出列生成パイプラインの適用により,要約忠実度の観点から抽象的ベースラインよりも顕著な性能向上が得られた。
これらの観察は、2段階のアプローチを用いた忠実テキスト要約タスクにおけるChatGPTの能力向上のための潜在的方向性を明らかにする。
関連論文リスト
- Leveraging Large Language Models for Comparative Literature Summarization with Reflective Incremental Mechanisms [44.99833362998488]
ChatCiteは、比較文学要約を生成するために大きな言語モデル(LLM)を利用する新しい方法である。
注釈付き要約付き1000の研究論文からなるカスタムデータセットCompLit-LongContext上でChatCiteを評価する。
論文 参考訳(メタデータ) (2024-12-03T04:09:36Z) - Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Information-Theoretic Distillation for Reference-less Summarization [67.51150817011617]
本稿では,要約のための情報理論的目的に基づいて,強力な要約器を蒸留する新しい枠組みを提案する。
我々は,教師モデルとしてPythia-2.8Bから出発する。
我々は,ChatGPTと競合する5億8800万のパラメータしか持たないコンパクトだが強力な要約器に到達した。
論文 参考訳(メタデータ) (2024-03-20T17:42:08Z) - Pushing the Limits of ChatGPT on NLP Tasks [79.17291002710517]
ChatGPTの成功にもかかわらず、ほとんどのNLPタスクのパフォーマンスは教師付きベースラインよりかなり低い。
そこで本研究では,原因を調べた結果,以下の要因が原因であることが判明した。
NLPタスクにおけるChatGPTの限界を押し上げるために,これらの問題に対処する汎用モジュールの集合を提案する。
論文 参考訳(メタデータ) (2023-06-16T09:40:05Z) - ChatGPT as a Factual Inconsistency Evaluator for Text Summarization [17.166794984161964]
ゼロショット設定下において,ChatGPTは事実整合性を評価することができることを示す。
一般的に、二項関係推論、要約ランク付け、一貫性評価に関する以前の評価指標よりも優れています。
しかし、ChatGPTの出力を綿密に検査すると、より語彙的に類似した候補を好むこと、誤った推論、指示の不十分な理解など、一定の制限が示される。
論文 参考訳(メタデータ) (2023-03-27T22:30:39Z) - Is ChatGPT a Good NLG Evaluator? A Preliminary Study [121.77986688862302]
NLG測定値として信頼性を示すため,ChatGPTのメタ評価を行った。
実験の結果,ChatGPTは従来の自動測定値と比較して,人間の判断と最先端あるいは競合的な相関を達成できた。
我々の予備研究は、汎用的な信頼性のあるNLGメトリックの出現を促すことを願っている。
論文 参考訳(メタデータ) (2023-03-07T16:57:20Z) - Exploring the Limits of ChatGPT for Query or Aspect-based Text
Summarization [28.104696513516117]
GPT3やChatGPTのような大規模言語モデル(LLM)は、テキスト要約タスクにこれらのモデルを使用することに大きな関心を寄せている。
最近の研究では、zhang2023ベンチマーキング(zhang2023benchmarking)は、LLMの生成するニュースサマリーがすでに人間と同等であることを示している。
実験の結果,ChatGPTの性能はルージュスコアの点で従来の微調整手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2023-02-16T04:41:30Z) - Comparing Methods for Extractive Summarization of Call Centre Dialogue [77.34726150561087]
そこで本稿では,これらの手法を用いて呼の要約を生成し,客観的に評価することにより,実験的な比較を行った。
TopicSum と Lead-N は他の要約法よりも優れており,BERTSum は主観的評価と客観的評価の両方で比較的低いスコアを得た。
論文 参考訳(メタデータ) (2022-09-06T13:16:02Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Dynamic Sliding Window for Meeting Summarization [25.805553277418813]
代表コーパス上での会議記録の言語的特徴を分析し,要約を含む文が会議議題と相関していることを確認した。
そこで本研究では,会議要約のための動的スライディングウインドウ戦略を提案する。
論文 参考訳(メタデータ) (2021-08-31T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。