論文の概要: sui-1: Grounded and Verifiable Long-Form Summarization
- arxiv url: http://arxiv.org/abs/2601.08472v1
- Date: Tue, 13 Jan 2026 11:59:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.18111
- Title: sui-1: Grounded and Verifiable Long-Form Summarization
- Title(参考訳): すい-1 接地し、検証可能な長文要約
- Authors: Benedikt Droste, Jan Philipp Harries, Maximilian Idahl, Björn Plüster,
- Abstract要約: 大規模言語モデルは、ユーザーがソーステキストに対して検証できない、もっともらしいが不誠実な要約を生成する。
Inline citations を用いた抽象的な要約を生成する 24B パラメータモデル sui-1 を提案する。
我々の合成データパイプラインは、チェーン・オブ・シークレットとマルチステージ検証を組み合わせ、22,000以上の高品質なトレーニング例を生成します。
- 参考スコア(独自算出の注目度): 0.10888485668490162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models frequently generate plausible but unfaithful summaries that users cannot verify against source text, a critical limitation in compliance-sensitive domains such as government and legal analysis. We present sui-1, a 24B parameter model that produces abstractive summaries with inline citations, enabling users to trace each claim to its source sentence. Our synthetic data pipeline combines chain-of-thought prompting with multi-stage verification, generating over 22,000 high-quality training examples across five languages from diverse sources including parliamentary documents, web text, and Wikipedia. Evaluation shows sui-1 significantly outperforms all tested open-weight baselines, including models with 3x more parameters. These results demonstrate that task-specific training substantially outperforms scale alone for citation-grounded summarization. Model weights and an interactive demo are publicly available.
- Abstract(参考訳): 大規模言語モデルは、しばしば、ユーザーがソーステキストに対して検証できない、もっともらしいが不誠実な要約を生成し、これは政府や法的な分析のようなコンプライアンスに敏感なドメインにおいて重要な制限である。
Inline citations を用いて抽象的な要約を生成する24Bパラメータモデル sui-1 を提案する。
我々の合成データパイプラインは、多段階認証と組み合わせて、議会文書、ウェブテキスト、ウィキペディアなど、さまざまなソースから5言語で22,000以上の高品質なトレーニング例を生成します。
評価の結果、sui-1は3倍のパラメータを持つモデルを含む全ての試験されたオープンウェイトベースラインを著しく上回っている。
これらの結果から,タスク固有のトレーニングは,引用基底の要約において,単独でのスケールを著しく上回っていることが示唆された。
モデルウェイトとインタラクティブなデモが公開されている。
関連論文リスト
- Cite Pretrain: Retrieval-Free Knowledge Attribution for Large Language Models [44.31597857713689]
最初の段階でActive Indexingを導入し、一般化可能なソースアンコールバインディングを作成します。
Qwen-2.5-7B&3Bの実験は、アクティブインデックスがパッシブインデックスのベースラインを一貫して上回っていることを示している。
内部の引用は、モデルを検索ノイズに対してより堅牢にすることで、外部の引用を補完する。
論文 参考訳(メタデータ) (2025-06-21T04:48:05Z) - Attacking Misinformation Detection Using Adversarial Examples Generated by Language Models [1.8759938228229573]
テキスト分類アルゴリズムのロバスト性をテストするために,逆例を生成するという課題について検討する。
我々は、攻撃者が試すことができるクエリ数に現実的な制限を設定することで、コンテンツモデレーションのシミュレーションに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-28T11:46:30Z) - AugSumm: towards generalizable speech summarization using synthetic
labels from large language model [61.73741195292997]
抽象音声要約(SSUM)は、音声から人間に似た要約を生成することを目的としている。
従来のSSUMモデルは、主に、人間による注釈付き決定論的要約(英語版)を用いて訓練され、評価されている。
AugSummは,人間のアノテータが拡張要約を生成するためのプロキシとして,大規模言語モデル(LLM)を利用する手法である。
論文 参考訳(メタデータ) (2024-01-10T18:39:46Z) - Split and Rephrase with Large Language Models [2.499907423888049]
Split and Rephrase (SPRP) タスクは、複雑な文を短い文法文の列に分割する。
タスク上の大きな言語モデルを評価し、主要なメトリクスに基づいて、技術の現状を大幅に改善できることを示します。
論文 参考訳(メタデータ) (2023-12-18T10:16:37Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - On Faithfulness and Factuality in Abstractive Summarization [17.261247316769484]
我々は抽象文書要約のためのニューラルテキスト生成モデルの制約を解析した。
これらのモデルは、入力文書に反するコンテンツを幻覚させる傾向にあることがわかった。
テキスト・エンタテインメントの指標は,標準指標よりも忠実度と相関性が高いことを示す。
論文 参考訳(メタデータ) (2020-05-02T00:09:16Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。