論文の概要: A Bag of Tricks for Dialogue Summarization
- arxiv url: http://arxiv.org/abs/2109.08232v1
- Date: Thu, 16 Sep 2021 21:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 08:12:13.425196
- Title: A Bag of Tricks for Dialogue Summarization
- Title(参考訳): 対話要約のためのトリックの袋
- Authors: Muhammad Khalifa, Miguel Ballesteros, Kathleen McKeown
- Abstract要約: 課題は,複数の話者に属する対話の部分の処理と識別,否定的理解,状況の推論,非公式言語理解の4つである。
事前訓練されたシーケンス・ツー・シーケンス言語モデルを用いて、話者名置換、否定的スコープハイライト、関連するタスクによるマルチタスク学習、ドメイン内のデータの事前学習について検討する。
- 参考スコア(独自算出の注目度): 7.7837843673493685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue summarization comes with its own peculiar challenges as opposed to
news or scientific articles summarization. In this work, we explore four
different challenges of the task: handling and differentiating parts of the
dialogue belonging to multiple speakers, negation understanding, reasoning
about the situation, and informal language understanding. Using a pretrained
sequence-to-sequence language model, we explore speaker name substitution,
negation scope highlighting, multi-task learning with relevant tasks, and
pretraining on in-domain data. Our experiments show that our proposed
techniques indeed improve summarization performance, outperforming strong
baselines.
- Abstract(参考訳): 対話要約は、ニュースや科学記事の要約とは対照的に、独自の挑戦を伴う。
本研究では,複数の話者に属する対話の部分の処理と識別,否定的理解,状況の推論,非公式言語理解の4つの課題について検討する。
事前学習されたシーケンスからシーケンスへの言語モデルを用いて、話者名置換、否定スコープハイライト、関連するタスクによるマルチタスク学習、ドメイン内データの事前トレーニングについて検討する。
実験の結果,提案手法は,強いベースラインを上回って要約性能が向上した。
関連論文リスト
- Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Improving Zero and Few-shot Generalization in Dialogue through
Instruction Tuning [27.92734269206744]
InstructDialは対話のための命令チューニングフレームワークである。
48の多様な対話タスクからなるリポジトリからなり、59のオープンな対話データセットから作成されるテキストとテキストの統一フォーマットである。
分析の結果,InstructDialは未知のデータセットや対話評価や意図検出などのタスクに対して良好なゼロショット性能を実現し,数ショット設定でさらに優れたパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2022-05-25T11:37:06Z) - UniDU: Towards A Unified Generative Dialogue Understanding Framework [62.8474841241855]
DUタスク間の情報交換を実現するために,統合された生成対話理解フレームワークであるUniDUについて検討する。
我々は,5つの基本課題にまたがる10の対話理解データセットの実験を行う。
提案したUniDUフレームワークは5つのタスクすべてにおいてタスク固有のよく設計されたメソッドよりも優れている。
論文 参考訳(メタデータ) (2022-04-10T09:32:34Z) - Who says like a style of Vitamin: Towards Syntax-Aware
DialogueSummarization using Multi-task Learning [2.251583286448503]
個々の話者からの発声と独特の統語構造との関係に焦点をあてる。
話者は、音声プリントのような言語情報を含むことができる独自のテキストスタイルを持つ。
構文認識情報と対話要約の両方をマルチタスクで学習する。
論文 参考訳(メタデータ) (2021-09-29T05:30:39Z) - Topic-Aware Contrastive Learning for Abstractive Dialogue Summarization [41.75442239197745]
本研究は,コヒーレンス検出とサブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サミマリ・ジェネレーションという2つのトピック・アウェア・コントラスト学習目標を提案する。
ベンチマークデータセットの実験では、提案手法が強いベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-09-10T17:03:25Z) - Coreference-Aware Dialogue Summarization [24.986030179701405]
ニューラルネットワークの抽象的対話要約モデルにおいて,コア参照情報を明示的に組み込む手法について検討する。
実験結果から,提案手法は最先端性能を実現することが示された。
事実的正当性の評価結果から,このようなコア参照認識モデルの方が,インターロケータ間の情報フローの追跡に優れていることが示唆された。
論文 参考訳(メタデータ) (2021-06-16T05:18:50Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - Re-framing Incremental Deep Language Models for Dialogue Processing with
Multi-task Learning [14.239355474794142]
本稿では,1つのインクリメンタル対話処理モデルのトレーニングを可能にするマルチタスク学習フレームワークを提案する。
これらのタスクは、タスクからのノイズの重大度に依存する各タスクの最適貢献により、互いに正の帰納バイアスを与えることを示す。
論文 参考訳(メタデータ) (2020-11-13T04:31:51Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。