論文の概要: Dynamic Sliding Window for Meeting Summarization
- arxiv url: http://arxiv.org/abs/2108.13629v1
- Date: Tue, 31 Aug 2021 05:39:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 14:33:25.826217
- Title: Dynamic Sliding Window for Meeting Summarization
- Title(参考訳): 会議要約のための動的滑り窓
- Authors: Zhengyuan Liu, Nancy F. Chen
- Abstract要約: 代表コーパス上での会議記録の言語的特徴を分析し,要約を含む文が会議議題と相関していることを確認した。
そこで本研究では,会議要約のための動的スライディングウインドウ戦略を提案する。
- 参考スコア(独自算出の注目度): 25.805553277418813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently abstractive spoken language summarization raises emerging research
interest, and neural sequence-to-sequence approaches have brought significant
performance improvement. However, summarizing long meeting transcripts remains
challenging. Due to the large length of source contents and targeted summaries,
neural models are prone to be distracted on the context, and produce summaries
with degraded quality. Moreover, pre-trained language models with input length
limitations cannot be readily applied to long sequences. In this work, we first
analyze the linguistic characteristics of meeting transcripts on a
representative corpus, and find that the sentences comprising the summary
correlate with the meeting agenda. Based on this observation, we propose a
dynamic sliding window strategy for meeting summarization. Experimental results
show that performance benefit from the proposed method, and outputs obtain
higher factual consistency than the base model.
- Abstract(参考訳): 近年,抽象的な音声言語要約が研究の関心を喚起し,ニューラルシークエンス・ツー・シークエンス・アプローチが顕著な性能向上をもたらした。
しかし、長文の要約はいまだに困難である。
ソースの内容と対象の要約が多すぎるため、ニューラルネットワークはコンテキストに気を散らす傾向があり、劣化した品質の要約を生成する。
さらに、入力長制限のある事前学習言語モデルは、長いシーケンスに容易に適用できない。
本研究はまず,代表コーパス上での会議記録の言語的特徴を分析し,要約を含む文が会議議題と相関していることを確認した。
そこで本研究では, 会議要約のための動的スライディングウインドウ戦略を提案する。
実験の結果, 提案手法は性能に有益であり, 出力はベースモデルよりも高い結果整合性が得られることがわかった。
関連論文リスト
- Leveraging Discourse Structure for Extractive Meeting Summarization [26.76383031532945]
本稿では,談話構造を利用したミーティングのための抽出要約システムを提案する。
我々は、GNNに基づくノード分類モデルを訓練し、最も重要な発話を選択する。
AMIおよびICSIの実験結果から,本手法が既存のテキストベースおよびグラフベース抽出要約システムを上回ることを示した。
論文 参考訳(メタデータ) (2024-05-17T19:06:20Z) - Using Contextual Information for Sentence-level Morpheme Segmentation [0.0]
形態素セグメンテーションをシーケンス・ツー・シーケンス問題として再定義し、個々の単語を分離するのではなく、文全体を入力として扱う。
その結果,多言語モデルの方が単言語モデルに比べて優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-15T20:12:32Z) - FENICE: Factuality Evaluation of summarization based on Natural language Inference and Claim Extraction [85.26780391682894]
自然言語推論とクレーム抽出(FENICE)に基づく要約のファクチュアリティ評価を提案する。
FENICEは、ソース文書内の情報と、要約から抽出されたクレームと呼ばれる一連の原子的事実との間のNLIベースのアライメントを利用する。
我々の測定基準は、事実性評価のためのデファクトベンチマークであるAGGREFACTに関する新しい技術状況を設定する。
論文 参考訳(メタデータ) (2024-03-04T17:57:18Z) - Self-Convinced Prompting: Few-Shot Question Answering with Repeated
Introspection [13.608076739368949]
本稿では,大規模事前学習型言語モデルの可能性を活用する新しいフレームワークを提案する。
我々のフレームワークは、典型的な数発の連鎖プロンプトの出力を処理し、応答の正しさを評価し、回答を精査し、最終的には新しい解を生成する。
論文 参考訳(メタデータ) (2023-10-08T06:36:26Z) - Generating Multiple-Length Summaries via Reinforcement Learning for
Unsupervised Sentence Summarization [44.835811239393244]
文要約は、テキストの中核的な内容を維持しながら与えられたテキストを短縮する。
人書きの要約のないテキストを要約するために、教師なしのアプローチが研究されている。
本研究では, 基礎構造を含まない強化学習に基づく抽象モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T08:34:28Z) - A Focused Study on Sequence Length for Dialogue Summarization [68.73335643440957]
既存のモデルの出力とそれに対応する人間の参照の長さの差を解析する。
モデル設定を比較し,要約長予測のための有能な特徴を同定する。
第3に,要約長を十分に組み込むことができれば,既存のモデルに顕著な改善がもたらされることを示す。
論文 参考訳(メタデータ) (2022-09-24T02:49:48Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - Dialogue Summarization with Supporting Utterance Flow Modeling and Fact
Regularization [58.965859508695225]
本稿では、2つの新しいモジュールを用いた対話要約のためのエンドツーエンドニューラルネットワークを提案する。
サポートされた発話フローモデリングは、前者の発話から後者へのフォーカスを円滑にシフトさせることで、コヒーレントな要約を生成するのに役立つ。
事実の正則化は、モデルトレーニング中に生成された要約は、基礎と真実の要約と実際に一致するように促します。
論文 参考訳(メタデータ) (2021-08-03T03:09:25Z) - Controllable Abstractive Dialogue Summarization with Sketch Supervision [56.59357883827276]
本モデルは,最大50.79のROUGE-Lスコアを持つ最大対話要約コーパスSAMSumの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-28T19:05:36Z) - A Hierarchical Network for Abstractive Meeting Summarization with
Cross-Domain Pretraining [52.11221075687124]
本稿では,会議シナリオに適応する抽象的要約ネットワークを提案する。
提案手法は,長時間の会議記録に対応する階層構造と,話者間の差異を表現する役割ベクトルを設計する。
我々のモデルは、自動測定と人的評価の両方において、過去のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-04-04T21:00:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。