論文の概要: Large Language Models and Book Summarization: Reading or Remembering, Which Is Better?
- arxiv url: http://arxiv.org/abs/2603.09981v1
- Date: Mon, 09 Feb 2026 17:02:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.520105
- Title: Large Language Models and Book Summarization: Reading or Remembering, Which Is Better?
- Title(参考訳): 大規模言語モデルと書籍要約 - 読み書きか覚えか - どちらがよいか?
- Authors: Tairan Fu, Javier Conde, Pedro Reviriego, Javier Coronado-Blázquez, Nina Melero, Elena Merino-Gómez,
- Abstract要約: モデルの内部知識と本の全文のみを用いて作成した要約を比較した。
以上の結果から,全文は概してより詳細な要約を提供するが,内部知識要約のスコアが向上する本もある。
これは、長文の要約を行うモデルの能力に疑問を呈する。
- 参考スコア(独自算出の注目度): 3.791270012079502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Summarization is a core task in Natural Language Processing (NLP). Recent advances in Large Language Models (LLMs) and the introduction of large context windows reaching millions of tokens make it possible to process entire books in a single prompt. At the same time, for well-known books, LLMs can generate summaries based only on internal knowledge acquired during training. This raises several important questions: How do summaries generated from internal memory compare to those derived from the full text? Does prior knowledge influence summaries even when the model is given the book as input? In this work, we conduct an experimental evaluation of book summarization with state-of-the-art LLMs. We compare summaries of well-known books produced using (i) only the internal knowledge of the model and (ii) the full text of the book. The results show that having the full text provides more detailed summaries in general, but some books have better scores for the internal knowledge summaries. This puts into question the capabilities of models to perform summarization of long texts, as information learned during training can outperform summarization of the full text in some cases.
- Abstract(参考訳): 要約は自然言語処理(NLP)のコアタスクである。
大規模言語モデル(LLM)の最近の進歩と数百万のトークンに到達した大きなコンテキストウィンドウの導入により、本全体をひとつのプロンプトで処理することが可能になった。
同時に、有名な書籍では、LLMはトレーニング中に得られた内部知識に基づいて要約を生成することができる。
内部メモリから生成されたサマリは、フルテキストから生成されたサマリとどのように比較されますか?
モデルが入力として与えられた場合でも,事前知識が要約に影響を与えるか?
本研究では,本書の要約を最先端のLCMを用いて実験的に評価する。
私たちはよく知られた書籍の要約を比較する
一 モデルの内部知識及び内部知識のみ
(二)本の全文
以上の結果から,全文は概してより詳細な要約を提供するが,内部知識要約のスコアが向上する本もある。
このことは、長いテキストの要約を行うモデルの能力に疑問を呈し、トレーニング中に学んだ情報は、場合によっては全テキストの要約よりも優れている。
関連論文リスト
- Generalization v.s. Memorization: Tracing Language Models' Capabilities Back to Pretraining Data [76.90128359866462]
本稿では,出力確率と事前学習データ頻度の相関を計測する,記憶化,分布記憶化という拡張概念を導入する。
本研究は, より単純で知識集約的なタスクにおいて, 記憶がより大きな役割を担い, 一般化が, より困難で推論に基づくタスクの鍵であることを示す。
論文 参考訳(メタデータ) (2024-07-20T21:24:40Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues
and Documents [13.755637074366813]
SummNは、典型的な事前訓練されたLMの最大文脈長よりも長いテキストを入力するための、シンプルで柔軟で効果的な多段階フレームワークである。
LMコンテキストサイズを固定したままステージ数を調整することで任意の長さの入力テキストを処理できる。
実験の結果,SummNは従来の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-10-16T06:19:54Z) - Recursively Summarizing Books with Human Feedback [10.149048526411434]
本論では,小説全体の抽象的要約の課題について述べる。
タスクの小さな部分でトレーニングされたモデルを使用して、より広範なタスクに対するフィードバックの提供を支援します。
書籍長要約のための最近のBookSumデータセットについて,最先端の成果を得た。
論文 参考訳(メタデータ) (2021-09-22T17:34:18Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。