論文の概要: Investigating Consistency in Query-Based Meeting Summarization: A
Comparative Study of Different Embedding Methods
- arxiv url: http://arxiv.org/abs/2402.06907v1
- Date: Sat, 10 Feb 2024 08:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 18:43:07.835970
- Title: Investigating Consistency in Query-Based Meeting Summarization: A
Comparative Study of Different Embedding Methods
- Title(参考訳): クエリベースミーティング要約における一貫性の検討--異なる埋め込み方法の比較研究
- Authors: Chen Jia-Chen (Oscar), Guillem Senabre, Allane Caron
- Abstract要約: テキスト要約は自然言語処理(NLP)分野における有名な応用の1つである。
与えられたコンテキストに基づいて重要な情報による要約を自動的に生成することを目的としている。
本稿では,Microsoft が提案した "QMSum: A New Benchmark for Query-based Multi-domain Meeting Summarization" に着想を得た。
また,提案するLocaterモデルを用いて,与えられたテキストとクエリに基づいて関連するスパンを抽出し,それをSummarizerモデルで要約する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With more and more advanced data analysis techniques emerging, people will
expect these techniques to be applied in more complex tasks and solve problems
in our daily lives. Text Summarization is one of famous applications in Natural
Language Processing (NLP) field. It aims to automatically generate summary with
important information based on a given context, which is important when you
have to deal with piles of documents. Summarization techniques can help capture
key points in a short time and bring convenience in works. One of applicable
situation is meeting summarization, especially for important meeting that tend
to be long, complicated, multi-topic and multi-person. Therefore, when people
want to review specific content from a meeting, it will be hard and
time-consuming to find the related spans in the meeting transcript. However,
most of previous works focus on doing summarization for newsletters, scientific
articles...etc, which have a clear document structure and an official format.
For the documents with complex structure like transcripts, we think those works
are not quite suitable for meeting summarization. Besides, the consistency of
summary is another issue common to be discussed in NLP field. To conquer
challenges of meeting summarization, we are inspired by "QMSum: A New Benchmark
for Query-based Multi-domain Meeting Summarization" proposed by Microsoft and
we also propose our Locater model designed to extract relevant spans based on
given transcript and query, which are then summarized by Summarizer model.
Furthermore, we perform a comparative study by applying different word
embedding techniques to improve summary consistency.
- Abstract(参考訳): より高度なデータ分析技術が出現するにつれ、これらの技術がより複雑なタスクに応用され、日々の問題を解決することが期待されます。
テキスト要約は自然言語処理(NLP)分野における有名な応用の1つである。
これは、文書の山を扱う必要があるときに重要なコンテキストに基づいて、重要な情報で自動的に要約を生成することを目的としています。
要約技術は、キーポイントを短時間でキャプチャし、作業に利便性をもたらすのに役立つ。
適用可能な状況の1つは要約のミーティングであり、特に、長く、複雑で、多面的、多人数的な重要なミーティングである。
したがって、ミーティングから特定のコンテンツをレビューしたい場合、ミーティングの書き起こしで関連するスパンを見つけるのは難しく時間がかかるでしょう。
しかし、以前の作品のほとんどは、明確な文書構造と公式フォーマットを持つニュースレター、科学論文...etcの要約に重点を置いている。
書き起こしのような複雑な構造を持つ文書の場合、これらの文書は要約にはあまり適していないと思います。
さらに、要約の整合性は、NLPフィールドで議論されるのが一般的である。
提案する「qmsum: a new benchmark for query-based multi-domain meeting summarization」(qmsum: a new benchmark for query-based multi-domain meeting summarization)に着想を得た。
さらに,要約整合性を改善するために異なる単語埋め込み手法を適用して比較研究を行う。
関連論文リスト
- Aspect-based Meeting Transcript Summarization: A Two-Stage Approach with
Weak Supervision on Sentence Classification [91.13086984529706]
Aspect-based meeting transcript summarization は複数の要約を生成することを目的としている。
従来の要約手法は、全ての側面の情報を1つの要約で混合する。
アスペクトベースの会議書き起こし要約のための2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T19:06:31Z) - QuOTeS: Query-Oriented Technical Summarization [0.2936007114555107]
提案するQuOTeSは,潜在的参照の集合から研究の要約に関連する文章を検索するインタラクティブシステムである。
QuOTeS は Query-Focused Extractive Summarization と High-Recall Information Retrieval の技法を統合し、科学文書のインタラクティブなクエリ-Focused Summarization を提供する。
結果から,QuOTeSは肯定的なユーザエクスペリエンスを提供し,関連する,簡潔かつ完全なクエリ中心の要約を一貫して提供することが明らかになった。
論文 参考訳(メタデータ) (2023-06-20T18:43:24Z) - Aspect-Oriented Summarization through Query-Focused Extraction [23.62412515574206]
実際のユーザのニーズは、特定のクエリではなく、ユーザが興味を持っているデータセットの幅広いトピックという側面に、より深く浸透することが多い。
抽出クエリに焦点を絞った学習手法をベンチマークし、モデルを訓練するための対照的な拡張手法を提案する。
我々は2つのアスペクト指向データセットを評価し、この手法が一般的な要約システムよりも焦点を絞った要約を得られることを発見した。
論文 参考訳(メタデータ) (2021-10-15T18:06:21Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - QMSum: A New Benchmark for Query-based Multi-domain Meeting
Summarization [45.83402681068943]
QMSumは、複数のドメインで232のミーティングで1,808のクエリサマリーペアで構成されている。
find-then-summarizeメソッドを調査し、タスクに関する強力な要約ベースラインのセットを評価します。
論文 参考訳(メタデータ) (2021-04-13T05:00:35Z) - WSL-DS: Weakly Supervised Learning with Distant Supervision for Query
Focused Multi-Document Abstractive Summarization [16.048329028104643]
Query Focused Multi-Document Summarization (QF-MDS)タスクでは、ドキュメントのセットとクエリが与えられ、そこでこれらのドキュメントから要約を生成する。
このタスクの大きな課題のひとつは、ラベル付きトレーニングデータセットの可用性の欠如である。
本稿では,遠隔指導による弱教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T02:02:55Z) - From Standard Summarization to New Tasks and Beyond: Summarization with
Manifold Information [77.89755281215079]
テキスト要約は、原文書の短く凝縮した版を作成することを目的とした研究分野である。
現実世界のアプリケーションでは、ほとんどのデータは平易なテキスト形式ではない。
本稿では,現実のアプリケーションにおけるこれらの新しい要約タスクとアプローチについて調査する。
論文 参考訳(メタデータ) (2020-05-10T14:59:36Z) - A Hierarchical Network for Abstractive Meeting Summarization with
Cross-Domain Pretraining [52.11221075687124]
本稿では,会議シナリオに適応する抽象的要約ネットワークを提案する。
提案手法は,長時間の会議記録に対応する階層構造と,話者間の差異を表現する役割ベクトルを設計する。
我々のモデルは、自動測定と人的評価の両方において、過去のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-04-04T21:00:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。