論文の概要: Where did you get that? Towards Summarization Attribution for Analysts
- arxiv url: http://arxiv.org/abs/2511.08589v1
- Date: Tue, 28 Oct 2025 14:24:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-16 06:38:31.057769
- Title: Where did you get that? Towards Summarization Attribution for Analysts
- Title(参考訳): どこでそれを手に入れたのか?アナリストの要約属性に向けて
- Authors: Violet B, John M. Conroy, Sean Lynch, Danielle M, Neil P. Molino, Aaron Wiechmann, Julia S. Yang,
- Abstract要約: 我々は、要約中の各文をソーステキストの一部にリンクする、帰属のための自動メソッドに焦点を当てる。
本稿では,ハイブリッド要約,すなわち抽出要約の自動パラフレーズを用いて,属性の容易化について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analysts require attribution, as nothing can be reported without knowing the source of the information. In this paper, we will focus on automatic methods for attribution, linking each sentence in the summary to a portion of the source text, which may be in one or more documents. We explore using a hybrid summarization, i.e., an automatic paraphrase of an extractive summary, to ease attribution. We also use a custom topology to identify the proportion of different categories of attribution-related errors.
- Abstract(参考訳): アナリストは情報ソースを知らなければ何も報告できないため、属性を必要とする。
本稿では,要約中の各文を,1つ以上の文書に含まれる可能性のあるソーステキストの一部にリンクする,属性の自動帰属手法に着目する。
本稿では,ハイブリッド要約,すなわち抽出要約の自動パラフレーズを用いて,属性の容易化について検討する。
また、属性関連エラーのカテゴリの比率を特定するために、カスタムトポロジも使用しています。
関連論文リスト
- Attribution Gradients: Incrementally Unfolding Citations for Critical Examination of Attributed AI Answers [25.15818827932554]
属性勾配を情報源属性検証の解として提示する。
ユーザは、回答の文をそのクレームに分解することができる。
各クレームに対して、ユーザはソースから抽出されたサポートや矛盾した抜粋を見ることができる。
これらの属性勾配の特徴は、応答、クレーム、抽出、コンテキスト間の同時相互接続を促進する。
論文 参考訳(メタデータ) (2025-10-01T00:07:28Z) - Context-Aware Hierarchical Merging for Long Document Summarization [56.96619074316232]
本論文では,階層的なマージをソース文書からコンテキストと統合する手法を提案する。
法的および物語的領域を表すデータセットの実験結果は、文脈的拡張がゼロショットと階層的な融合ベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-03T01:14:31Z) - Source Identification in Abstractive Summarization [0.8883733362171033]
生成された要約文に必須情報を含む入力文を$textitsource文として定義し、ソース文を解析して抽象的な要約がどのように作られるかを研究する。
我々は,複数の手法を比較し,タスクの強いベースラインを確立するために,自動ソース文検出を定式化する。
実験結果から, パープレキシティに基づく手法は, 比較的抽象的条件下では良好に動作し, 類似性に基づく手法は比較的抽出的条件下では頑健であることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:09:09Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - Reinforcing Semantic-Symmetry for Document Summarization [15.113768658584979]
文書要約は、長い文書を詳細な情報と正確な意味記述を備えた短いバージョンに凝縮する。
本稿では,文書要約のための新しいtextbfreinforcing stextbfemantic-textbfsymmetric Learning textbfmodelを提案する。
CNN/Daily MailとBigPatentの2つの大胆なベンチマークデータセットに対して、一連の実験が行われた。
論文 参考訳(メタデータ) (2021-12-14T17:41:37Z) - Unsupervised Extractive Summarization using Pointwise Mutual Information [5.544401446569243]
文間のポイントワイズ相互情報 (PMI) を用いて, 関連性および冗長性の新たな指標を提案する。
本手法は, ニュース, 医療雑誌記事, 個人逸話など, さまざまな領域のデータセットにおける類似性に基づく手法を上回っていることを示した。
論文 参考訳(メタデータ) (2021-02-11T21:05:50Z) - Align then Summarize: Automatic Alignment Methods for Summarization
Corpus Creation [8.029049649310211]
自動テキスト要約の最先端は、主にニュース記事を中心に展開されている。
我々の研究は、ニューラル・サマリゼーションに適したデータセットを得るために、レポートに関するセグメンテーションとコーディネートから構成される。
本報告では, 連携した公開ミーティングの新たなコーパスにおいて, 自動アライメントと要約性能について報告する。
論文 参考訳(メタデータ) (2020-07-15T17:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。