論文の概要: Focus Attention: Promoting Faithfulness and Diversity in Summarization
- arxiv url: http://arxiv.org/abs/2105.11921v1
- Date: Tue, 25 May 2021 13:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 14:15:32.280599
- Title: Focus Attention: Promoting Faithfulness and Diversity in Summarization
- Title(参考訳): 注意:要約における信仰と多様性の促進
- Authors: Rahul Aralikatte, Shashi Narayan, Joshua Maynez, Sascha Rothe, Ryan
McDonald
- Abstract要約: ほとんどのseq2seqデコーダは、各デコードステップで何を生成するかを決めながら、健全なコンテンツに集中することを学ぶ。
我々は,デコーダが入力文書と類似あるいは関連性のあるトークンを積極的に生成するように促す,シンプルで効果的な方法であるFocus Attention Mechanismを紹介した。
また,多彩な要約を生成するための焦点サンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 13.733443806587122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Professional summaries are written with document-level information, such as
the theme of the document, in mind. This is in contrast with most seq2seq
decoders which simultaneously learn to focus on salient content, while deciding
what to generate, at each decoding step. With the motivation to narrow this
gap, we introduce Focus Attention Mechanism, a simple yet effective method to
encourage decoders to proactively generate tokens that are similar or topical
to the input document. Further, we propose a Focus Sampling method to enable
generation of diverse summaries, an area currently understudied in
summarization. When evaluated on the BBC extreme summarization task, two
state-of-the-art models augmented with Focus Attention generate summaries that
are closer to the target and more faithful to their input documents,
outperforming their vanilla counterparts on \rouge and multiple faithfulness
measures. We also empirically demonstrate that Focus Sampling is more effective
in generating diverse and faithful summaries than top-$k$ or nucleus
sampling-based decoding methods.
- Abstract(参考訳): 専門的な要約は、文書のテーマなどの文書レベルの情報を念頭に置いて書かれる。
これは、多くのseq2seqデコーダと対照的で、各デコードステップで何を生成するかを決めながら、突出したコンテンツに同時に集中することを学ぶ。
このギャップを狭める動機から,デコーダが入力文書に類似したトークンを積極的に生成するように促す,シンプルかつ効果的な手法であるFocus Attention Mechanismを導入する。
さらに,現在要約に係わる領域である多種多様な要約を生成するためのフォーカスサンプリング手法を提案する。
bbcのextreme summarizationタスクで評価すると、フォーカスアテンションで強化された2つの最先端モデルが、ターゲットに近く、入力ドキュメントに忠実なサマリーを生成し、ルージュや複数の忠実度尺度でバニラのサマリーを上回った。
また,top-$k$やnucleus sample-basedデコード法よりも,フォーカスサンプリングが多様で忠実な要約を生成するのに有効であることを実証的に示す。
関連論文リスト
- JADS: A Framework for Self-supervised Joint Aspect Discovery and Summarization [3.992091862806936]
私たちのソリューションはトピックの発見と要約をひとつのステップに統合します。
テキストデータから,JADS(Joint Aspect Discovery and Summarization Algorithm)が入力からアスペクトを検出する。
提案手法は,地上の真理と高いセマンティックアライメントを実現し,現実的である。
論文 参考訳(メタデータ) (2024-05-28T23:01:57Z) - Attention Where It Matters: Rethinking Visual Document Understanding
with Selective Region Concentration [26.408343160223517]
本稿では,SeRumという文書理解モデルを提案する。
SeRumは、画像理解と認識タスクを視覚トークンの局所的な復号プロセスに変換する。
本稿では,SeRumが文書理解タスクの最先端性能とテキストスポッティングタスクの競合結果を達成することを示す。
論文 参考訳(メタデータ) (2023-09-03T10:14:34Z) - Faithfulness-Aware Decoding Strategies for Abstractive Summarization [72.74188956905712]
本研究では,ビームサーチや核サンプリングなどの生成技術が抽象的な要約における忠実性に及ぼす影響について検討する。
本稿では,現在の生成技術よりも忠実性を高めるための2つの忠実度認識生成手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T16:49:27Z) - TRIE++: Towards End-to-End Information Extraction from Visually Rich
Documents [51.744527199305445]
本稿では,視覚的にリッチな文書からエンド・ツー・エンドの情報抽出フレームワークを提案する。
テキスト読み出しと情報抽出は、よく設計されたマルチモーダルコンテキストブロックを介して互いに強化することができる。
フレームワークはエンドツーエンドのトレーニング可能な方法でトレーニングでき、グローバルな最適化が達成できる。
論文 参考訳(メタデータ) (2022-07-14T08:52:07Z) - Target-aware Abstractive Related Work Generation with Contrastive
Learning [48.02845973891943]
関連作業部は学術論文の重要な構成要素であり、参考論文の文脈における対象論文の貢献を強調している。
既存の作業部生成手法の多くは、既成の文章を抽出することに依存している。
本稿では,新たな文からなる関連作業区間を生成できる抽象的目標認識関連作業生成装置(TAG)を提案する。
論文 参考訳(メタデータ) (2022-05-26T13:20:51Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - Modeling Endorsement for Multi-Document Abstractive Summarization [10.166639983949887]
単一文書の要約と多文書の要約の重大な違いは、文書の中で健全なコンテンツがどのように現れるかである。
本稿では,複数文書要約における文書間補完効果とその活用をモデル化する。
提案手法は各文書から合成を生成し,他の文書から有意な内容を識別する支援者として機能する。
論文 参考訳(メタデータ) (2021-10-15T03:55:42Z) - Unsupervised Summarization for Chat Logs with Topic-Oriented Ranking and
Context-Aware Auto-Encoders [59.038157066874255]
本稿では,手動ラベル付きデータを用いずにチャット要約を行うrankaeという新しいフレームワークを提案する。
RankAEは、中心性と多様性に応じてトピックの発話を同時に選択するトピック指向のランキング戦略で構成されています。
消音自動エンコーダは、選択された発話に基づいて簡潔でコンテキスト情報に基づいた要約を生成するように設計されています。
論文 参考訳(メタデータ) (2020-12-14T07:31:17Z) - Better Highlighting: Creating Sub-Sentence Summary Highlights [40.46639471959677]
本稿では,混乱を避けるために,自己完結型ハイライトを生成する新しい手法を提案する。
提案手法は, 決定点過程と文脈表現を組み合わせ, 部分文セグメントの最適集合を同定する。
本手法の柔軟性とモデリング能力を示すため,要約データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2020-10-20T18:57:42Z) - A Transformer-based Approach for Source Code Summarization [86.08359401867577]
コードトークン間のペア関係をモデル化することにより,要約のためのコード表現を学習する。
アプローチは単純であるにもかかわらず、最先端技術よりもかなりの差があることが示される。
論文 参考訳(メタデータ) (2020-05-01T23:29:36Z) - Salience Estimation with Multi-Attention Learning for Abstractive Text
Summarization [86.45110800123216]
テキスト要約のタスクでは、単語、フレーズ、文のサリエンス推定が重要な要素である。
本稿では,サラレンス推定のための2つの新しい注目学習要素を含むマルチアテンション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T02:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。