論文の概要: Chain of Summaries: Summarization Through Iterative Questioning
- arxiv url: http://arxiv.org/abs/2511.15719v1
- Date: Wed, 12 Nov 2025 16:53:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.282385
- Title: Chain of Summaries: Summarization Through Iterative Questioning
- Title(参考訳): 要約の連鎖:反復的質問による要約
- Authors: William Brach, Lukas Galke Poech,
- Abstract要約: 大きな言語モデル(LLM)は、ますます外部のWebコンテンツを使用するようになっている。
これらの内容の多くは、LLMに親しみやすいフォーマットとコンテキスト長の制限のため、LLMによって容易に消化できない。
本稿では,Webコンテンツの平文リポジトリとして機能する汎用情報量要約を生成する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly using external web content. However, much of this content is not easily digestible by LLMs due to LLM-unfriendly formats and limitations of context length. To address this issue, we propose a method for generating general-purpose, information-dense summaries that act as plain-text repositories of web content. Inspired by Hegel's dialectical method, our approach, denoted as Chain of Summaries (CoS), iteratively refines an initial summary (thesis) by identifying its limitations through questioning (antithesis), leading to a general-purpose summary (synthesis) that can satisfy current and anticipate future information needs. Experiments on the TriviaQA, TruthfulQA, and SQUAD datasets demonstrate that CoS outperforms zero-shot LLM baselines by up to 66% and specialized summarization methods such as BRIO and PEGASUS by up to 27%. CoS-generated summaries yield higher Q&A performance compared to the source content, while requiring substantially fewer tokens and being agnostic to the specific downstream LLM. CoS thus resembles an appealing option for website maintainers to make their content more accessible for LLMs, while retaining possibilities for human oversight.
- Abstract(参考訳): 大きな言語モデル(LLM)は、ますます外部のWebコンテンツを使用するようになっている。
しかし、この内容の多くは、LLMに親しみやすいフォーマットとコンテキスト長の制限のため、LLMによって容易に消化できない。
この問題に対処するために,Webコンテンツの平文リポジトリとして機能する汎用情報量要約を生成する手法を提案する。
ヘーゲルの弁証法にインスパイアされた我々のアプローチは、補題の連鎖(CoS)と表現され、質問(アンチテーゼ)を通じてその限界を同定し、現在の情報ニーズを満足し、予測できる汎用的な要約(合成)をもたらすことで、初期要約(理論)を反復的に洗練する。
TriviaQA、TruthfulQA、SQUADデータセットの実験では、CoSはゼロショットLCMベースラインを最大66%、BRIOやPEGASUSのような特殊な要約手法を最大27%上回っている。
CoS生成サマリーは、ソースコンテンツよりも高いQ&A性能を得ると同時に、トークンを著しく少なくし、特定の下流LLMに依存しない。
そのためCoSは、Webサイトのメンテナにとって、LLMでコンテンツにアクセスしやすくするための魅力的なオプションに似ており、人間の監視の可能性を保っている。
関連論文リスト
- Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Scaling Up Summarization: Leveraging Large Language Models for Long Text Extractive Summarization [0.27624021966289597]
本稿では,Large Language Models (LLM) を利用した抽出要約フレームワークであるEYEGLAXSを紹介する。
EYEGLAXSは、事実的および文法的整合性を保証するために抽出的な要約に焦点を当てている。
このシステムはPubMedやArXivといった有名なデータセットに新しいパフォーマンスベンチマークを設定する。
論文 参考訳(メタデータ) (2024-08-28T13:52:19Z) - LaMSUM: Amplifying Voices Against Harassment through LLM Guided Extractive Summarization of User Incident Reports [6.770555526416268]
インドのセーフシティのような市民報告プラットフォームは、公衆や当局がセクシャルハラスメント事件について情報を提供し続けるのを助けている。
様々なインドのコード混在言語を処理・理解できる要約アルゴリズムが不可欠である。
セーフシティ・ポストのコレクションを抽出するための多層フレームワークであるLaMSUMを紹介した。
論文 参考訳(メタデータ) (2024-06-22T10:25:55Z) - Refiner: Restructure Retrieval Content Efficiently to Advance Question-Answering Capabilities [30.1331670544648]
大規模言語モデル(LLM)はパラメトリックな知識によって制限され、知識集約的なタスクに幻覚をもたらす。
我々は、RAGの検索後のプロセスで機能するエンドツーエンドの抽出・再構成パラダイムである$textitRefiner$を提案する。
論文 参考訳(メタデータ) (2024-06-17T09:25:10Z) - SuRe: Summarizing Retrievals using Answer Candidates for Open-domain QA of LLMs [85.54906813106683]
大規模言語モデル(LLM)を用いたオープンドメイン質問応答(ODQA)の簡易かつ効果的なフレームワークを提案する。
SuRe は LLM が与えられた質問に対するより正確な回答を予測するのに役立つ。
様々なODQAベンチマークの実験結果はSuReの優位性を示し、標準的なプロンプトアプローチよりも4.6%、F1スコアが4.0%向上した。
論文 参考訳(メタデータ) (2024-04-17T01:15:54Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - Element-aware Summarization with Large Language Models: Expert-aligned
Evaluation and Chain-of-Thought Method [35.181659789684545]
自動要約は、ソースドキュメントのキーアイデアを含む簡潔な要約を生成する。
CNN/DailyMailやBBC XSumからの引用は、主に幻覚と情報冗長性の点で騒々しい。
本稿では,LCMを段階的に生成するためにSumCoT(Slide Chain-of-Thought)手法を提案する。
実験結果から, ROUGE-L では, 最先端の微調整 PLM とゼロショット LLM を+4.33/+4.77 で上回った。
論文 参考訳(メタデータ) (2023-05-22T18:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。