論文の概要: A Hierarchical Network for Abstractive Meeting Summarization with
Cross-Domain Pretraining
- arxiv url: http://arxiv.org/abs/2004.02016v4
- Date: Sun, 20 Sep 2020 05:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 23:10:42.981787
- Title: A Hierarchical Network for Abstractive Meeting Summarization with
Cross-Domain Pretraining
- Title(参考訳): クロスドメイン事前学習による抽象会議要約のための階層的ネットワーク
- Authors: Chenguang Zhu, Ruochen Xu, Michael Zeng, Xuedong Huang
- Abstract要約: 本稿では,会議シナリオに適応する抽象的要約ネットワークを提案する。
提案手法は,長時間の会議記録に対応する階層構造と,話者間の差異を表現する役割ベクトルを設計する。
我々のモデルは、自動測定と人的評価の両方において、過去のアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 52.11221075687124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the abundance of automatic meeting transcripts, meeting summarization is
of great interest to both participants and other parties. Traditional methods
of summarizing meetings depend on complex multi-step pipelines that make joint
optimization intractable. Meanwhile, there are a handful of deep neural models
for text summarization and dialogue systems. However, the semantic structure
and styles of meeting transcripts are quite different from articles and
conversations. In this paper, we propose a novel abstractive summary network
that adapts to the meeting scenario. We design a hierarchical structure to
accommodate long meeting transcripts and a role vector to depict the difference
among speakers. Furthermore, due to the inadequacy of meeting summary data, we
pretrain the model on large-scale news summary data. Empirical results show
that our model outperforms previous approaches in both automatic metrics and
human evaluation. For example, on ICSI dataset, the ROUGE-1 score increases
from 34.66% to 46.28%.
- Abstract(参考訳): 自動会議書き起こしが豊富にあるため、会議要約は参加者と他の当事者の両方にとって大きな関心事である。
ミーティングを要約する従来の方法は、複雑なマルチステップパイプラインに依存しており、共同最適化は難解である。
一方、テキスト要約と対話システムには、いくつかのディープニューラルネットワークモデルがある。
しかし、ミーティングの書き起こしの意味構造やスタイルは記事や会話とは全く異なる。
本稿では,会議シナリオに適応した新しい要約要約ネットワークを提案する。
長いミーティングの書き起こしに対応する階層構造と,話者間の差異を表現する役割ベクトルを設計した。
さらに,大規模ニュース要約データに対して,会議要約データの不十分さからモデルを事前学習する。
実験の結果,我々のモデルは,自動測定と人的評価の両方において,従来の手法よりも優れていた。
例えばICSIデータセットでは、ROUGE-1スコアは34.66%から46.28%に増加した。
関連論文リスト
- Leveraging Discourse Structure for Extractive Meeting Summarization [26.76383031532945]
本稿では,談話構造を利用したミーティングのための抽出要約システムを提案する。
我々は、GNNに基づくノード分類モデルを訓練し、最も重要な発話を選択する。
AMIおよびICSIの実験結果から,本手法が既存のテキストベースおよびグラフベース抽出要約システムを上回ることを示した。
論文 参考訳(メタデータ) (2024-05-17T19:06:20Z) - Investigating Consistency in Query-Based Meeting Summarization: A
Comparative Study of Different Embedding Methods [0.0]
テキスト要約は自然言語処理(NLP)分野における有名な応用の1つである。
与えられたコンテキストに基づいて重要な情報による要約を自動的に生成することを目的としている。
本稿では,Microsoft が提案した "QMSum: A New Benchmark for Query-based Multi-domain Meeting Summarization" に着想を得た。
また,提案するLocaterモデルを用いて,与えられたテキストとクエリに基づいて関連するスパンを抽出し,それをSummarizerモデルで要約する。
論文 参考訳(メタデータ) (2024-02-10T08:25:30Z) - Action-Item-Driven Summarization of Long Meeting Transcripts [8.430481660019451]
本稿では,ミーティングサマリーの生成を自動化する新しい,効果的なアプローチを提案する。
我々の新しいアルゴリズムは、会議書に含まれるアクションアイテムによって駆動される抽象的な会議要約を生成することができる。
我々のパイプラインは、AMIコーパス全体で64.98のBERTSスコアを達成した。
論文 参考訳(メタデータ) (2023-12-29T12:33:21Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - TANet: Thread-Aware Pretraining for Abstractive Conversational
Summarization [27.185068253347257]
我々はRedditコミュニティの複数人による議論に基づいて,RCSと呼ばれる大規模(11M)事前学習データセットを構築した。
次に、スレッド対応のTransformerベースのネットワークであるTANetを紹介する。
会話を文の列として扱う既存の事前学習モデルとは異なり、本質的な文脈依存は会話全体を理解する上で重要な役割を担っていると論じる。
論文 参考訳(メタデータ) (2022-04-09T16:08:46Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - End-to-End Diarization for Variable Number of Speakers with Local-Global
Networks and Discriminative Speaker Embeddings [66.50782702086575]
本論文では,単一チャンネルの音声記録から会議ダイアリゼーションを行う,エンドツーエンドのディープネットワークモデルを提案する。
提案システムは,可変数の置換不変なクロスエントロピーに基づく損失関数を用いて,未知数の話者とのミーティングを処理するように設計されている。
論文 参考訳(メタデータ) (2021-05-05T14:55:29Z) - Dialogue Discourse-Aware Graph Convolutional Networks for Abstractive
Meeting Summarization [24.646506847760822]
会議要約のための対話談-Aware Graph Convolutional Networks (DDA-GCN) を開発する。
まず,対話談話関係を用いた会議テキスト全体を談話グラフに変換し,それからDDA-GCNを用いてそのグラフの意味表現を符号化する。
最後に,再帰的ニューラルネットワークを用いて要約を生成する。
論文 参考訳(メタデータ) (2020-12-07T07:51:38Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。