論文の概要: Query-Utterance Attention with Joint modeling for Query-Focused Meeting
Summarization
- arxiv url: http://arxiv.org/abs/2303.04487v3
- Date: Thu, 1 Jun 2023 03:07:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 11:20:11.082657
- Title: Query-Utterance Attention with Joint modeling for Query-Focused Meeting
Summarization
- Title(参考訳): 問合せ要約のための共同モデリングによる問合せ発話注意
- Authors: Xingxian Liu, Bin Duan, Bo Xiao, Yajing Xu
- Abstract要約: 本稿では,クエリ・Utterance Attentionに基づく共同モデリングトークンと発話を用いた問合せ対応フレームワークを提案する。
異なる粒度のクエリ関連性は、クエリに関連する要約を生成するのに寄与することを示す。
- 参考スコア(独自算出の注目度): 4.763356598070365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query-focused meeting summarization (QFMS) aims to generate summaries from
meeting transcripts in response to a given query. Previous works typically
concatenate the query with meeting transcripts and implicitly model the query
relevance only at the token level with attention mechanism. However, due to the
dilution of key query-relevant information caused by long meeting transcripts,
the original transformer-based model is insufficient to highlight the key parts
related to the query. In this paper, we propose a query-aware framework with
joint modeling token and utterance based on Query-Utterance Attention. It
calculates the utterance-level relevance to the query with a dense retrieval
module. Then both token-level query relevance and utterance-level query
relevance are combined and incorporated into the generation process with
attention mechanism explicitly. We show that the query relevance of different
granularities contributes to generating a summary more related to the query.
Experimental results on the QMSum dataset show that the proposed model achieves
new state-of-the-art performance.
- Abstract(参考訳): クエリ中心のミーティング要約(QFMS)は、所定のクエリに応答して、ミーティングのトランスクリプトから要約を生成することを目的としている。
以前の作業は通常、クエリと会議のトランスクリプトを結合し、トークンレベルでのみクエリ関連性を暗黙的にモデル化する。
しかし、長時間の会議記録によるキークエリ関連情報の希釈により、元のトランスフォーマーモデルではクエリに関連する重要な部分を強調できない。
本稿では,クエリ・Utterance Attentionに基づく共同モデリングトークンと発話を用いた問合せ対応フレームワークを提案する。
クエリーに対する発話レベルの関連性を高密度検索モジュールで計算する。
次に、トークンレベルのクエリ関連性と発話レベルのクエリ関連性を組み合わせ、アテンション機構を明示した生成プロセスに組み込む。
異なる粒度のクエリ関連性が,クエリに関連する要約を生成することに寄与することを示す。
QMSumデータセットの実験結果から,提案モデルが新たな最先端性能を実現することを示す。
関連論文リスト
- Database-Augmented Query Representation for Information Retrieval [59.57065228857247]
データベース拡張クエリ表現(DAQu)と呼ばれる新しい検索フレームワークを提案する。
DAQuは、元のクエリを複数のテーブルにまたがるさまざまな(クエリ関連の)メタデータで拡張する。
リレーショナルデータベースのメタデータを組み込む様々な検索シナリオにおいてDAQuを検証する。
論文 参考訳(メタデータ) (2024-06-23T05:02:21Z) - Selecting Query-bag as Pseudo Relevance Feedback for Information-seeking Conversations [76.70349332096693]
情報検索対話システムは電子商取引システムで広く利用されている。
クエリバッグに基づくPseudo Relevance Feedback framework(QB-PRF)を提案する。
関連クエリを備えたクエリバッグを構築し、擬似シグナルとして機能し、情報検索の会話をガイドする。
論文 参考訳(メタデータ) (2024-03-22T08:10:32Z) - Investigating Consistency in Query-Based Meeting Summarization: A
Comparative Study of Different Embedding Methods [0.0]
テキスト要約は自然言語処理(NLP)分野における有名な応用の1つである。
与えられたコンテキストに基づいて重要な情報による要約を自動的に生成することを目的としている。
本稿では,Microsoft が提案した "QMSum: A New Benchmark for Query-based Multi-domain Meeting Summarization" に着想を得た。
また,提案するLocaterモデルを用いて,与えられたテキストとクエリに基づいて関連するスパンを抽出し,それをSummarizerモデルで要約する。
論文 参考訳(メタデータ) (2024-02-10T08:25:30Z) - Improving Query-Focused Meeting Summarization with Query-Relevant
Knowledge [71.14873115781366]
本稿では,その課題に対処するため,知識認識要約器(KAS)と呼ばれる知識強化2段階のフレームワークを提案する。
最初の段階では、クエリ関連セグメント抽出を改善するために知識認識スコアを導入します。
第2段階では,クエリ関連知識を要約生成に取り入れる。
論文 参考訳(メタデータ) (2023-09-05T10:26:02Z) - Learning to Rank Utterances for Query-Focused Meeting Summarization [0.7868449549351486]
発話のランク付けのためのランダージェネレータフレームワークを提案する。
発話のランク付け学習は,クエリに関連する発話を効果的に選択する上で有効であることを示す。
QMSumの実験結果から,提案モデルはパラメータが少ない既存の多段階モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-05-22T06:25:09Z) - CAPSTONE: Curriculum Sampling for Dense Retrieval with Document
Expansion [68.19934563919192]
本稿では,学習中に擬似クエリを利用して,生成したクエリと実際のクエリとの関係を徐々に向上させるカリキュラムサンプリング戦略を提案する。
ドメイン内およびドメイン外両方のデータセットに対する実験結果から,本手法が従来の高密度検索モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-12-18T15:57:46Z) - Few-shot Query-Focused Summarization with Prefix-Merging [10.572282987037353]
本稿では,クエリに着目した要約において,プレフィックスに基づくプレトレーニング戦略を提案する。
少数のトレーニング可能なパラメータだけで、プレフィックスマージはクエリ中心の要約を微調整する。
論文 参考訳(メタデータ) (2022-11-29T12:48:37Z) - Improve Query Focused Abstractive Summarization by Incorporating Answer
Relevance [43.820971952979875]
本稿では,QFS-BARTモデルを提案する。QFS-BARTは,質問応答モデルによって与えられたソース文書の明示的な回答関連性を組み込んだモデルである。
我々のモデルは, 要約性能を大幅に向上させる, 事前学習された大規模モデルを利用することができる。
Debatepediaデータセットの実証結果は、提案したモデルが新しい最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-05-27T06:58:42Z) - Improving Attention Mechanism with Query-Value Interaction [92.67156911466397]
本稿では,問合せ対応の注目値を学習可能な問合せ-値相互作用関数を提案する。
我々のアプローチは、多くの注意に基づくモデルの性能を一貫して改善することができる。
論文 参考訳(メタデータ) (2020-10-08T05:12:52Z) - Query Focused Multi-Document Summarization with Distant Supervision [88.39032981994535]
既存の作業は、クエリとテキストセグメント間の関連性を推定する検索スタイルの手法に大きく依存している。
本稿では,クエリに関連するセグメントを推定するための個別モジュールを導入した粗大なモデリングフレームワークを提案する。
我々のフレームワークは、標準QFSベンチマークにおいて、強力な比較システムよりも優れていることを実証する。
論文 参考訳(メタデータ) (2020-04-06T22:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。