論文の概要: GEMINI: Controlling the Sentence-level Writing Style for Abstractive
Text Summarization
- arxiv url: http://arxiv.org/abs/2304.03548v2
- Date: Sun, 8 Oct 2023 07:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 13:46:27.902246
- Title: GEMINI: Controlling the Sentence-level Writing Style for Abstractive
Text Summarization
- Title(参考訳): GEMINI:抽象テキスト要約のための文レベル記述スタイルの制御
- Authors: Guangsheng Bao, Zebin Ou, and Yue Zhang
- Abstract要約: 本稿では,文の書き直しと抽象化を模倣するために,リライターとジェネレータを統合した適応モデル GEMINI を提案する。
実験により、我々の適応的なアプローチは、3つのベンチマークデータセット上で純粋に抽象的で書き直しのベースラインよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 13.790788364335686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human experts write summaries using different techniques, including
extracting a sentence from the document and rewriting it, or fusing various
information from the document to abstract it. These techniques are flexible and
thus difficult to be imitated by any single method. To address this issue, we
propose an adaptive model, GEMINI, that integrates a rewriter and a generator
to mimic the sentence rewriting and abstracting techniques, respectively.
GEMINI adaptively chooses to rewrite a specific document sentence or generate a
summary sentence from scratch. Experiments demonstrate that our adaptive
approach outperforms the pure abstractive and rewriting baselines on three
benchmark datasets, achieving the best results on WikiHow. Interestingly,
empirical results show that the human summary styles of summary sentences are
consistently predictable given their context. We release our code and model at
\url{https://github.com/baoguangsheng/gemini}.
- Abstract(参考訳): 人間の専門家は、文書から文章を抽出して書き直したり、文書から様々な情報を融合して抽象化するなど、異なる手法で要約を書く。
これらの技法は柔軟であり、単一の手法で模倣することは困難である。
そこで本稿では,文の書き換えと抽象化を模倣するリライトとジェネレータを統合した適応モデルであるgeminiを提案する。
GEMINIは、特定の文書文を書き直したり、スクラッチから要約文を生成することを適応的に選択する。
実験により、我々の適応アプローチは、3つのベンチマークデータセットの純粋抽象および書き換えベースラインよりも優れており、wikihowで最高の結果を得た。
興味深いことに、経験的な結果から、要約文の人間の要約スタイルは、文脈から常に予測可能であることが示される。
コードとモデルは \url{https://github.com/baoguangsheng/gemini} でリリースします。
関連論文リスト
- Source Identification in Abstractive Summarization [0.8883733362171033]
生成された要約文に必須情報を含む入力文を$textitsource文として定義し、ソース文を解析して抽象的な要約がどのように作られるかを研究する。
我々は,複数の手法を比較し,タスクの強いベースラインを確立するために,自動ソース文検出を定式化する。
実験結果から, パープレキシティに基づく手法は, 比較的抽象的条件下では良好に動作し, 類似性に基づく手法は比較的抽出的条件下では頑健であることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:09:09Z) - AugSumm: towards generalizable speech summarization using synthetic
labels from large language model [61.73741195292997]
抽象音声要約(SSUM)は、音声から人間に似た要約を生成することを目的としている。
従来のSSUMモデルは、主に、人間による注釈付き決定論的要約(英語版)を用いて訓練され、評価されている。
AugSummは,人間のアノテータが拡張要約を生成するためのプロキシとして,大規模言語モデル(LLM)を利用する手法である。
論文 参考訳(メタデータ) (2024-01-10T18:39:46Z) - A General Contextualized Rewriting Framework for Text Summarization [15.311467109946571]
抽出文は比較的焦点が当てられているが、背景知識や談話の文脈が失われる可能性がある。
コンテントベースのアドレッシングによって抽出文を識別し、グループタグアライメントを施したSeq2seqとしてコンテクスト化された書き直しを形式化する。
その結果,本手法は強化学習を必要とせず,非コンテクスチュアライズされた書き換えシステムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-13T03:55:57Z) - Reinforcing Semantic-Symmetry for Document Summarization [15.113768658584979]
文書要約は、長い文書を詳細な情報と正確な意味記述を備えた短いバージョンに凝縮する。
本稿では,文書要約のための新しいtextbfreinforcing stextbfemantic-textbfsymmetric Learning textbfmodelを提案する。
CNN/Daily MailとBigPatentの2つの大胆なベンチマークデータセットに対して、一連の実験が行われた。
論文 参考訳(メタデータ) (2021-12-14T17:41:37Z) - ARMAN: Pre-training with Semantically Selecting and Reordering of
Sentences for Persian Abstractive Summarization [7.16879432974126]
本稿では,トランスフォーマーをベースとしたエンコーダデコーダモデルARMANを提案する。
ARMANでは、修正されたセマンティックスコアに基づいて文書からの有能な文が選択され、擬似要約を形成する。
提案手法は,ROUGEとBERTScoreで計測された6つの要約タスクに対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-09-09T08:35:39Z) - Unsupervised Extractive Summarization by Pre-training Hierarchical
Transformers [107.12125265675483]
教師なし抽出文書要約は、訓練中にラベル付き要約を用いることなく、文書から重要な文章を選択することを目的としている。
既存の手法は主にグラフベースで、文をノードとして、エッジの重みは文の類似性によって測定される。
教師なし抽出要約のための文のランク付けにはトランスフォーマーの注意が利用できることがわかった。
論文 参考訳(メタデータ) (2020-10-16T08:44:09Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。