論文の概要: Heuristic-based Inter-training to Improve Few-shot Multi-perspective
Dialog Summarization
- arxiv url: http://arxiv.org/abs/2203.15590v2
- Date: Wed, 30 Mar 2022 13:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 11:38:17.363182
- Title: Heuristic-based Inter-training to Improve Few-shot Multi-perspective
Dialog Summarization
- Title(参考訳): マルチパースペクティブ・ダイアログ要約を改善するヒューリスティック・インタートレーニング
- Authors: Benjamin Sznajder, Chulaka Gunasekara, Guy Lev, Sachin Joshi, Eyal
Shnarch, Noam Slonim
- Abstract要約: サポートエージェントと顧客間のカスタマーケア会話の多面的要約について検討する。
提案手法は,アノテートデータの少ない多視点要約を生成するモデルをサポートすることを示す。
- 参考スコア(独自算出の注目度): 13.117715760754077
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many organizations require their customer-care agents to manually summarize
their conversations with customers. These summaries are vital for decision
making purposes of the organizations. The perspective of the summary that is
required to be created depends on the application of the summaries. With this
work, we study the multi-perspective summarization of customer-care
conversations between support agents and customers. We observe that there are
different heuristics that are associated with summaries of different
perspectives, and explore these heuristics to create weak-labeled data for
intermediate training of the models before fine-tuning with scarce human
annotated summaries. Most importantly, we show that our approach supports
models to generate multi-perspective summaries with a very small amount of
annotated data. For example, our approach achieves 94\% of the performance
(Rouge-2) of a model trained with the original data, by training only with 7\%
of the original data.
- Abstract(参考訳): 多くの組織は、顧客との会話を手作業で要約する必要がある。
これらの要約は組織の意思決定に不可欠である。
作成するために必要な要約の観点は、要約の応用に依存する。
本研究では,サポートエージェントと顧客とのカスタマケア会話のマルチパースペクティブな要約について検討する。
我々は、異なる視点の要約に関連付けられた異なるヒューリスティックが存在することを観察し、これらのヒューリスティックスを探索して、少ない人間の注釈付き要約と微調整する前にモデルの中間トレーニングのための弱いラベルデータを作成する。
最も重要なことは,本手法がアノテートデータの少ないマルチパースペクティブ・サマリーを生成するモデルをサポートすることである。
例えば、本手法では、元のデータでトレーニングされたモデルのパフォーマンス(ルージュ-2)の94\%を、元のデータの7\%でトレーニングすることで達成する。
関連論文リスト
- Tell me what I need to know: Exploring LLM-based (Personalized) Abstractive Multi-Source Meeting Summarization [5.979778557940213]
ミーティングの要約はデジタルコミュニケーションにおいて重要であるが、既存のソリューションはサリエンス識別に苦慮している。
これらの問題に対処する以前の試みは、関連する補足的リソース(例えばプレゼンテーションスライド)と書き起こしを併用することで、モデルの限られたコンテキストサイズによって妨げられている。
本研究では,3段階の大規模言語モデルによる補足材料を考慮したマルチソース会議要約について検討する。
論文 参考訳(メタデータ) (2024-10-18T15:40:48Z) - Personalized Video Summarization using Text-Based Queries and Conditional Modeling [3.4447129363520337]
この論文は、テキストベースのクエリと条件付きモデリングを統合することで、ビデオ要約の強化を探求する。
精度やF1スコアなどの評価指標は、生成された要約の品質を評価する。
論文 参考訳(メタデータ) (2024-08-27T02:43:40Z) - DataNarrative: Automated Data-Driven Storytelling with Visualizations and Texts [27.218934418961197]
データストーリ生成のための新しいタスクと,さまざまなソースから1,449のストーリを含むベンチマークを導入する。
2つのLLMエージェントを用いたマルチエージェントフレームワークを提案する。
我々のエージェント・フレームワークは一般的にモデルベースと人的評価の両方において非エージェント・フレームワークよりも優れていますが、結果はデータ・ストーリー・ジェネレーションにおけるユニークな課題を明らかにします。
論文 参考訳(メタデータ) (2024-08-09T21:31:33Z) - Information-Theoretic Distillation for Reference-less Summarization [67.51150817011617]
本稿では,要約のための情報理論的目的に基づいて,強力な要約器を蒸留する新しい枠組みを提案する。
我々は,教師モデルとしてPythia-2.8Bから出発する。
我々は,ChatGPTと競合する5億8800万のパラメータしか持たないコンパクトだが強力な要約器に到達した。
論文 参考訳(メタデータ) (2024-03-20T17:42:08Z) - Sample Efficient Multimodal Semantic Augmentation for Incremental
Summarization [13.529904498331673]
タスクビデオの漸進的な要約のためのプロンプト手法を開発した。
既存のモデルを用いて画像から意味概念を抽出する。
関連データセットに結果を示し、作業の可能な方向性について議論する。
論文 参考訳(メタデータ) (2023-03-08T03:58:06Z) - Summary-Oriented Vision Modeling for Multimodal Abstractive
Summarization [63.320005222549646]
マルチモーダル抽象要約(MAS)は、マルチモーダルデータ(テキストとビジョン)から簡潔な要約を作成することを目的としている。
本稿では,要約指向の視覚的特徴によって要約品質を改善することを提案する。
中高、低低、ゼロリソースのシナリオをカバーする44言語の実験は、提案手法の有効性と優位性を検証する。
論文 参考訳(メタデータ) (2022-12-15T09:05:26Z) - UniSumm and SummZoo: Unified Model and Diverse Benchmark for Few-Shot
Summarization [54.59104881168188]
textscUniSummは、複数の要約タスクで事前訓練された、統合された数ショットの要約モデルである。
textscSummZooは、スクリーンショットの要約をよりよく評価するための新しいベンチマークである。
論文 参考訳(メタデータ) (2022-11-17T18:54:47Z) - A Focused Study on Sequence Length for Dialogue Summarization [68.73335643440957]
既存のモデルの出力とそれに対応する人間の参照の長さの差を解析する。
モデル設定を比較し,要約長予測のための有能な特徴を同定する。
第3に,要約長を十分に組み込むことができれば,既存のモデルに顕著な改善がもたらされることを示す。
論文 参考訳(メタデータ) (2022-09-24T02:49:48Z) - Leveraging Pretrained Models for Automatic Summarization of
Doctor-Patient Conversations [9.184616102949228]
BARTを微調整することで,限られたトレーニングデータを用いて,流動的で適切な要約を生成することができることを示す。
慎重に選択された微調整データセットを用いて、この手法はより長い会話を扱うのに効果的であることが示されている。
論文 参考訳(メタデータ) (2021-09-24T20:18:59Z) - Dialogue Summarization with Supporting Utterance Flow Modeling and Fact
Regularization [58.965859508695225]
本稿では、2つの新しいモジュールを用いた対話要約のためのエンドツーエンドニューラルネットワークを提案する。
サポートされた発話フローモデリングは、前者の発話から後者へのフォーカスを円滑にシフトさせることで、コヒーレントな要約を生成するのに役立つ。
事実の正則化は、モデルトレーニング中に生成された要約は、基礎と真実の要約と実際に一致するように促します。
論文 参考訳(メタデータ) (2021-08-03T03:09:25Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。