論文の概要: Dialogue Summarization with Supporting Utterance Flow Modeling and Fact
Regularization
- arxiv url: http://arxiv.org/abs/2108.01268v1
- Date: Tue, 3 Aug 2021 03:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 14:02:38.662525
- Title: Dialogue Summarization with Supporting Utterance Flow Modeling and Fact
Regularization
- Title(参考訳): 発話フローモデリングと事実正規化を支援する対話要約
- Authors: Wang Chen, Piji Li, Hou Pong Chan, Irwin King
- Abstract要約: 本稿では、2つの新しいモジュールを用いた対話要約のためのエンドツーエンドニューラルネットワークを提案する。
サポートされた発話フローモデリングは、前者の発話から後者へのフォーカスを円滑にシフトさせることで、コヒーレントな要約を生成するのに役立つ。
事実の正則化は、モデルトレーニング中に生成された要約は、基礎と真実の要約と実際に一致するように促します。
- 参考スコア(独自算出の注目度): 58.965859508695225
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Dialogue summarization aims to generate a summary that indicates the key
points of a given dialogue. In this work, we propose an end-to-end neural model
for dialogue summarization with two novel modules, namely, the \emph{supporting
utterance flow modeling module} and the \emph{fact regularization module}. The
supporting utterance flow modeling helps to generate a coherent summary by
smoothly shifting the focus from the former utterances to the later ones. The
fact regularization encourages the generated summary to be factually consistent
with the ground-truth summary during model training, which helps to improve the
factual correctness of the generated summary in inference time. Furthermore, we
also introduce a new benchmark dataset for dialogue summarization. Extensive
experiments on both existing and newly-introduced datasets demonstrate the
effectiveness of our model.
- Abstract(参考訳): 対話要約は、与えられた対話の要点を示す要約を生成することを目的としている。
本研究では,2つの新しいモジュール,すなわち,emph{ supporting utterance flow modeling module} と \emph{fact regularization module} との対話要約のためのエンドツーエンドニューラルネットワークを提案する。
支援発話フローモデリングは、フォーカスを前者から後者へスムーズにシフトさせることにより、コヒーレントな要約を生成するのに役立つ。
事実正則化は、生成した要約がモデルトレーニング中の基幹的要約と現実的に整合することを奨励し、生成した要約の推論時間における事実的正当性を改善するのに役立つ。
さらに,対話要約のためのベンチマークデータセットも新たに導入する。
既存のデータセットと新しく導入されたデータセットの両方に対する大規模な実験は、我々のモデルの有効性を実証している。
関連論文リスト
- Factual Dialogue Summarization via Learning from Large Language Models [35.63037083806503]
大規模言語モデル(LLM)に基づく自動テキスト要約モデルは、より現実的に一貫した要約を生成する。
ゼロショット学習を用いて、LLMから記号的知識を抽出し、事実整合性(正)および矛盾性(負)の要約を生成する。
各種自動評価指標で確認したように,コヒーレンス,フラレンシ,関連性を保ちながら,より優れた事実整合性を実現する。
論文 参考訳(メタデータ) (2024-06-20T20:03:37Z) - Information-Theoretic Distillation for Reference-less Summarization [67.51150817011617]
本稿では,要約のための情報理論的目的に基づいて,強力な要約器を蒸留する新しい枠組みを提案する。
我々は,教師モデルとしてPythia-2.8Bから出発する。
我々は,ChatGPTと競合する5億8800万のパラメータしか持たないコンパクトだが強力な要約器に到達した。
論文 参考訳(メタデータ) (2024-03-20T17:42:08Z) - Baichuan2-Sum: Instruction Finetune Baichuan2-7B Model for Dialogue Summarization [12.45299260235282]
本稿では,役割指向のダイアグルージュ要約のための命令微調整モデルBaichuan2-Sumを提案する。
異なる役割に対して異なる命令を設定することで、モデルは対話相互作用から学び、期待される要約を出力することができる。
実験により、提案モデルが2つの公開対話要約データセット上で、最先端の新たな結果を達成することを示す。
論文 参考訳(メタデータ) (2024-01-27T20:20:39Z) - Instructive Dialogue Summarization with Query Aggregations [41.89962538701501]
本稿では,対話要約モデルの能力集合を拡張するために,命令精細言語モデルを提案する。
高品質なクエリベースの要約三重項を合成するための3段階のアプローチを提案する。
多目的インストラクティブトリプルを用いた3つの要約データセット上で、InstructDSと呼ばれる統一モデルをトレーニングすることにより、対話要約モデルの能力を拡大する。
論文 参考訳(メタデータ) (2023-10-17T04:03:00Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - He Said, She Said: Style Transfer for Shifting the Perspective of
Dialogues [75.58367095888914]
そこで本研究では,対話を非公式な初対人から形式的な第三者に書き換える視点シフト(spective shift)という,新たなスタイル転送タスクを定義した。
サンプルアプリケーションとして,対話要約データセット(SAMSum)への視点シフトの適用により,抽出ニュース要約モデルのゼロショット性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T14:16:07Z) - Leveraging Non-dialogue Summaries for Dialogue Summarization [1.0742675209112622]
要約データペアの文書化に変換を適用して,対話の要約に適したトレーニングデータを作成する。
我々は、我々のアプローチを検証するために、英語と韓国語の両方で広範な実験を行っている。
論文 参考訳(メタデータ) (2022-10-17T23:34:31Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Generating (Factual?) Narrative Summaries of RCTs: Experiments with
Neural Multi-Document Summarization [22.611879349101596]
系統的なレビューから,関連記事の要約を抽象的に要約するために,現代のニューラルモデルを評価する。
現代の要約システムは一貫して流動的で関連するシナプスを生み出すが、必ずしも現実的とは限らない。
論文 参考訳(メタデータ) (2020-08-25T22:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。