論文の概要: Self-Supervised Sentence Compression for Meeting Summarization
- arxiv url: http://arxiv.org/abs/2305.07988v1
- Date: Sat, 13 May 2023 19:54:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 18:20:31.142217
- Title: Self-Supervised Sentence Compression for Meeting Summarization
- Title(参考訳): 会議要約のための自己監督文圧縮
- Authors: Haochen Tan, Han Wu, Wei Shao, Xinyun Zhang, Mingjie Zhan, Zhaohui
Hou, Ding Liang, Linqi Song
- Abstract要約: 本稿では,重要なコンテンツを保存しながら冗長性を圧縮する要約の枠組みであるSVBを提案する。
自己監督パラダイムの下では、スライディングウインドウスコアリングは、複数の視点から各トークンの重要性を評価することを目的としている。
高い格付けのトークンは有能な情報と見なされ、テクタンチョールとラベル付けされる。
- 参考スコア(独自算出の注目度): 25.751522836353242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The conventional summarization model often fails to capture critical
information in meeting transcripts, as meeting corpus usually involves multiple
parties with lengthy conversations and is stuffed with redundant and trivial
content. To tackle this problem, we present SVB, an effective and efficient
framework for meeting summarization that `compress' the redundancy while
preserving important content via three processes: sliding-window dialogue
restoration and \textbf{S}coring, channel-wise importance score
\textbf{V}oting, and relative positional \textbf{B}ucketing. Specifically,
under the self-supervised paradigm, the sliding-window scoring aims to rate the
importance of each token from multiple views. Then these ratings are aggregated
by channel-wise voting. Tokens with high ratings will be regarded as salient
information and labeled as \textit{anchors}. Finally, to tailor the lengthy
input to an acceptable length for the language model, the relative positional
bucketing algorithm is performed to retain the anchors while compressing other
irrelevant contents in different granularities. Without large-scale
pre-training or expert-grade annotating tools, our proposed method outperforms
previous state-of-the-art approaches. A vast amount of evaluations and analyses
are conducted to prove the effectiveness of our method.
- Abstract(参考訳): 従来の要約モデルは、通常、ミーティングコーパスは長い会話を持つ複数のパーティを伴い、冗長で自明なコンテンツが詰め込まれているため、文書の要約において重要な情報をキャプチャできないことが多い。
この問題に対処するために,svbは,スライディング・ウィンドウ対話の復元と\textbf{s}coring,チャネルワイズ重要度スコア \textbf{v}oting,相対位置的 \textbf{b}ucketingの3つのプロセスを通じて,冗長性を保ちながら,冗長性を‘圧縮’する,効果的かつ効率的な要約フレームワークである。
具体的には、自己監督パラダイムの下で、スライディングウィンドウスコアは、複数のビューから各トークンの重要性を評価することを目的としている。
そして、これらの評価はチャンネルワイド投票によって集計される。
高評価のトークンは有能な情報と見なされ、‘textit{anchors} とラベル付けされる。
最後に、言語モデルに対して許容される長さに長大な入力を調整するために、異なる粒度で他の無関係な内容を圧縮しながらアンカーを保持する相対的な位置バケットアルゴリズムを実行する。
大規模事前学習やエキスパートレベルアノテートツールがなければ,提案手法は従来の最先端手法に匹敵する。
本手法の有効性を証明するために,膨大な評価と分析を行った。
関連論文リスト
- Recycled Attention: Efficient inference for long-context language models [54.00118604124301]
本稿では,入力トークンのサブセットに対して,フルコンテキストアテンションとアテンションを交互に切り替える推論時間手法であるRecycled Attentionを提案する。
部分的に注意を払っていると、全注意を払っている前のトークンの注意パターンをリサイクルし、最も出席しているトークンの上位Kにのみ出席する。
提案手法は,局所的な文脈や注目スコアの高いトークンにのみ参加する推論時加速度法と比較して,現在の復号ステップに関連するトークンを柔軟に選択する。
論文 参考訳(メタデータ) (2024-11-08T18:57:07Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Action-Item-Driven Summarization of Long Meeting Transcripts [8.430481660019451]
本稿では,ミーティングサマリーの生成を自動化する新しい,効果的なアプローチを提案する。
我々の新しいアルゴリズムは、会議書に含まれるアクションアイテムによって駆動される抽象的な会議要約を生成することができる。
我々のパイプラインは、AMIコーパス全体で64.98のBERTSスコアを達成した。
論文 参考訳(メタデータ) (2023-12-29T12:33:21Z) - Aspect-based Meeting Transcript Summarization: A Two-Stage Approach with
Weak Supervision on Sentence Classification [91.13086984529706]
Aspect-based meeting transcript summarization は複数の要約を生成することを目的としている。
従来の要約手法は、全ての側面の情報を1つの要約で混合する。
アスペクトベースの会議書き起こし要約のための2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T19:06:31Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z) - Meeting Summarization with Pre-training and Clustering Methods [6.47783315109491]
HMNetcitehmnetは、ワードレベルのトランスフォーマーとターンレベルのトランスフォーマーの両方をベースラインとして使用する階層型ネットワークである。
中間クラスタリングステップでQMSumciteqmsumの位置列列化アプローチを拡張する。
ベースラインモデルの性能を,要約に有効な最先端言語モデルであるBARTと比較する。
論文 参考訳(メタデータ) (2021-11-16T03:14:40Z) - Attention-based Multi-hypothesis Fusion for Speech Summarization [83.04957603852571]
音声認識(ASR)とテキスト要約(TS)を組み合わせることで、音声要約を実現することができる
ASR誤差はカスケード法における出力要約の品質に直接影響する。
本稿では、ASRの誤りに対して頑健なカスケード音声要約モデルを提案し、ASRが生成した複数の仮説を利用して、ASRの誤りが要約に与える影響を緩和する。
論文 参考訳(メタデータ) (2021-11-16T03:00:29Z) - Unsupervised Topic Segmentation of Meetings with BERT Embeddings [57.91018542715725]
本稿では、事前学習されたニューラルネットワークを用いて、従来の教師なしトピックセグメンテーション手法をどのように改善できるかを示す。
BERT埋め込みに基づく教師なしアプローチを導入し,既存の教師なしアプローチよりも15.5%のエラー率の削減を実現した。
論文 参考訳(メタデータ) (2021-06-24T12:54:43Z) - A Divide-and-Conquer Approach to the Summarization of Long Documents [4.863209463405628]
本稿では,長い文書のニューラル・サマライゼーションのための分割・畳み込み手法を提案する。
本手法は文書の談話構造を利用して,文の類似性を利用して問題をより小さな要約問題に分割する。
本稿では,シーケンス・ツー・シーケンスのRNNやトランスフォーマーなど,様々な要約モデルと組み合わせることで,要約性能の向上が期待できることを示す。
論文 参考訳(メタデータ) (2020-04-13T20:38:49Z) - A Hierarchical Network for Abstractive Meeting Summarization with
Cross-Domain Pretraining [52.11221075687124]
本稿では,会議シナリオに適応する抽象的要約ネットワークを提案する。
提案手法は,長時間の会議記録に対応する階層構造と,話者間の差異を表現する役割ベクトルを設計する。
我々のモデルは、自動測定と人的評価の両方において、過去のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-04-04T21:00:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。