論文の概要: Reconstruct Before Summarize: An Efficient Two-Step Framework for
Condensing and Summarizing Meeting Transcripts
- arxiv url: http://arxiv.org/abs/2305.07988v2
- Date: Sun, 22 Oct 2023 17:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 12:35:00.933673
- Title: Reconstruct Before Summarize: An Efficient Two-Step Framework for
Condensing and Summarizing Meeting Transcripts
- Title(参考訳): 要約前の再構築: 要約と要約のための効率的な2ステップフレームワーク
- Authors: Haochen Tan, Han Wu, Wei Shao, Xinyun Zhang, Mingjie Zhan, Zhaohui
Hou, Ding Liang, Linqi Song
- Abstract要約: 本稿では,効率的なミーティング要約のための2段階のフレームワークであるReconstruct before Summarize (RbS)を提案する。
RbSは、まず自己管理パラダイムを利用して、ミーティングの書き起こしを再構築することで、本質的な内容に注釈を付ける。
次に,相対的な位置バケット化(RPB)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 32.329723001930006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meetings typically involve multiple participants and lengthy conversations,
resulting in redundant and trivial content. To overcome these challenges, we
propose a two-step framework, Reconstruct before Summarize (RbS), for effective
and efficient meeting summarization. RbS first leverages a self-supervised
paradigm to annotate essential contents by reconstructing the meeting
transcripts. Secondly, we propose a relative positional bucketing (RPB)
algorithm to equip (conventional) summarization models to generate the summary.
Despite the additional reconstruction process, our proposed RPB significantly
compressed the input, leading to faster processing and reduced memory
consumption compared to traditional summarization methods. We validate the
effectiveness and efficiency of our method through extensive evaluations and
analysis. On two meeting summarization datasets, AMI and ICSI, our approach
outperforms previous state-of-the-art approaches without relying on large-scale
pre-training or expert-grade annotating tools.
- Abstract(参考訳): 会議は通常、複数の参加者と長い会話を伴い、結果として冗長で自明な内容になる。
これらの課題を克服するため,我々は,効果的かつ効率的なミーティング要約のための2段階フレームワークであるrestructe before summary (rbs)を提案する。
RbSは、まず自己管理パラダイムを利用して、ミーティングの書き起こしを再構築することで、本質的な内容に注釈を付ける。
次に,コンベンショナルな要約モデルを用いてサマリーを生成するための相対的位置バケット(rpb)アルゴリズムを提案する。
さらなる再構成プロセスにもかかわらず,提案手法は入力を著しく圧縮し,従来の要約手法に比べて高速な処理とメモリ消費量の削減を実現した。
本手法の有効性と有効性を広範囲な評価と分析により検証した。
AMIとICSIの2つの集合要約データセットでは、大規模な事前学習やエキスパートグレードのアノテーションツールに頼ることなく、従来の最先端のアプローチよりも優れている。
関連論文リスト
- Recycled Attention: Efficient inference for long-context language models [54.00118604124301]
本稿では,入力トークンのサブセットに対して,フルコンテキストアテンションとアテンションを交互に切り替える推論時間手法であるRecycled Attentionを提案する。
部分的に注意を払っていると、全注意を払っている前のトークンの注意パターンをリサイクルし、最も出席しているトークンの上位Kにのみ出席する。
提案手法は,局所的な文脈や注目スコアの高いトークンにのみ参加する推論時加速度法と比較して,現在の復号ステップに関連するトークンを柔軟に選択する。
論文 参考訳(メタデータ) (2024-11-08T18:57:07Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Action-Item-Driven Summarization of Long Meeting Transcripts [8.430481660019451]
本稿では,ミーティングサマリーの生成を自動化する新しい,効果的なアプローチを提案する。
我々の新しいアルゴリズムは、会議書に含まれるアクションアイテムによって駆動される抽象的な会議要約を生成することができる。
我々のパイプラインは、AMIコーパス全体で64.98のBERTSスコアを達成した。
論文 参考訳(メタデータ) (2023-12-29T12:33:21Z) - Aspect-based Meeting Transcript Summarization: A Two-Stage Approach with
Weak Supervision on Sentence Classification [91.13086984529706]
Aspect-based meeting transcript summarization は複数の要約を生成することを目的としている。
従来の要約手法は、全ての側面の情報を1つの要約で混合する。
アスペクトベースの会議書き起こし要約のための2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T19:06:31Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z) - Meeting Summarization with Pre-training and Clustering Methods [6.47783315109491]
HMNetcitehmnetは、ワードレベルのトランスフォーマーとターンレベルのトランスフォーマーの両方をベースラインとして使用する階層型ネットワークである。
中間クラスタリングステップでQMSumciteqmsumの位置列列化アプローチを拡張する。
ベースラインモデルの性能を,要約に有効な最先端言語モデルであるBARTと比較する。
論文 参考訳(メタデータ) (2021-11-16T03:14:40Z) - Attention-based Multi-hypothesis Fusion for Speech Summarization [83.04957603852571]
音声認識(ASR)とテキスト要約(TS)を組み合わせることで、音声要約を実現することができる
ASR誤差はカスケード法における出力要約の品質に直接影響する。
本稿では、ASRの誤りに対して頑健なカスケード音声要約モデルを提案し、ASRが生成した複数の仮説を利用して、ASRの誤りが要約に与える影響を緩和する。
論文 参考訳(メタデータ) (2021-11-16T03:00:29Z) - Unsupervised Topic Segmentation of Meetings with BERT Embeddings [57.91018542715725]
本稿では、事前学習されたニューラルネットワークを用いて、従来の教師なしトピックセグメンテーション手法をどのように改善できるかを示す。
BERT埋め込みに基づく教師なしアプローチを導入し,既存の教師なしアプローチよりも15.5%のエラー率の削減を実現した。
論文 参考訳(メタデータ) (2021-06-24T12:54:43Z) - A Divide-and-Conquer Approach to the Summarization of Long Documents [4.863209463405628]
本稿では,長い文書のニューラル・サマライゼーションのための分割・畳み込み手法を提案する。
本手法は文書の談話構造を利用して,文の類似性を利用して問題をより小さな要約問題に分割する。
本稿では,シーケンス・ツー・シーケンスのRNNやトランスフォーマーなど,様々な要約モデルと組み合わせることで,要約性能の向上が期待できることを示す。
論文 参考訳(メタデータ) (2020-04-13T20:38:49Z) - A Hierarchical Network for Abstractive Meeting Summarization with
Cross-Domain Pretraining [52.11221075687124]
本稿では,会議シナリオに適応する抽象的要約ネットワークを提案する。
提案手法は,長時間の会議記録に対応する階層構造と,話者間の差異を表現する役割ベクトルを設計する。
我々のモデルは、自動測定と人的評価の両方において、過去のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-04-04T21:00:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。