論文の概要: Learning-by-Narrating: Narrative Pre-Training for Zero-Shot Dialogue
Comprehension
- arxiv url: http://arxiv.org/abs/2203.10249v1
- Date: Sat, 19 Mar 2022 05:20:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:00:57.082725
- Title: Learning-by-Narrating: Narrative Pre-Training for Zero-Shot Dialogue
Comprehension
- Title(参考訳): ナレーションによる学習:ゼロショット対話理解のためのナラティブ事前学習
- Authors: Chao Zhao, Wenlin Yao, Dian Yu, Kaiqiang Song, Dong Yu, Jianshu Chen
- Abstract要約: 対話を補完するには、発話中の様々なキー情報をキャプチャするモデルが必要である。
そこで我々は,対話入力からキー情報をナレーションすることで学習する,物語誘導型事前学習戦略を開発した。
- 参考スコア(独自算出の注目度): 48.483910831143724
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Comprehending a dialogue requires a model to capture diverse kinds of key
information in the utterances, which are either scattered around or implicitly
implied in different turns of conversations. Therefore, dialogue comprehension
requires diverse capabilities such as paraphrasing, summarizing, and
commonsense reasoning. Towards the objective of pre-training a zero-shot
dialogue comprehension model, we develop a novel narrative-guided pre-training
strategy that learns by narrating the key information from a dialogue input.
However, the dialogue-narrative parallel corpus for such a pre-training
strategy is currently unavailable. For this reason, we first construct a
dialogue-narrative parallel corpus by automatically aligning movie subtitles
and their synopses. We then pre-train a BART model on the data and evaluate its
performance on four dialogue-based tasks that require comprehension.
Experimental results show that our model not only achieves superior zero-shot
performance but also exhibits stronger fine-grained dialogue comprehension
capabilities. The data and code are available at
https://github.com/zhaochaocs/Diana
- Abstract(参考訳): 対話を補完するには、発話中の様々なキー情報をキャプチャするモデルが必要である。
そのため、対話理解にはパラフレーズ化、要約、常識推論といった多様な機能が必要である。
ゼロショット対話理解モデルを事前学習する目的に向けて,対話入力から重要な情報をナレーションすることで学習する,新しい物語誘導事前学習戦略を開発する。
しかし、このような事前学習戦略のための対話音声並列コーパスは、現在利用できない。
そこで我々はまず,映画の字幕とそのシナプスを自動調整して対話型パラレルコーパスを構築する。
次に、データ上でBARTモデルを事前学習し、理解を必要とする4つの対話型タスクの性能を評価する。
実験の結果,ゼロショット性能が向上するだけでなく,より詳細な対話理解能力も発揮できることがわかった。
データとコードはhttps://github.com/zhaochaocs/dianaで入手できる。
関連論文リスト
- Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - STRUDEL: Structured Dialogue Summarization for Dialogue Comprehension [42.57581945778631]
抽象的な対話要約は、自然言語処理における重要なスタンドアロンタスクとみなされてきた。
本稿では,新たな対話要約タスクであるSTRUctured DiaLoguE Summarizationを提案する。
変換器エンコーダ言語モデルの対話理解性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-24T04:39:54Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - Controllable Dialogue Simulation with In-Context Learning [39.04491297557292]
textscDialogicは、大規模言語モデルに基づく対話シミュレーション手法である。
本手法は,人間の関与を最小あるいはゼロに抑えながら,少数の対話データを迅速に拡張することができる。
我々のシミュレートされた対話は、ほぼ人間に近い流速とアノテーションの精度を持つ。
論文 参考訳(メタデータ) (2022-10-09T06:32:58Z) - A Benchmark for Understanding and Generating Dialogue between Characters
in Stories [75.29466820496913]
本研究は,機械が物語の対話を理解・生成できるかどうかを探求する最初の研究である。
マスク付き対話生成と対話話者認識という2つの新しいタスクを提案する。
DialStoryの自動評価と手動評価で既存のモデルをテストすることで,提案課題の難しさを示す。
論文 参考訳(メタデータ) (2022-09-18T10:19:04Z) - Post-Training Dialogue Summarization using Pseudo-Paraphrasing [12.083992819138716]
本稿では,対話から物語への言い換えとして,事前訓練済み言語モデル(PLM)を提案する。
総合的な実験により,本手法は対話要約におけるバニラPLMを大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-04-28T13:42:19Z) - Structure Extraction in Task-Oriented Dialogues with Slot Clustering [94.27806592467537]
タスク指向対話では、対話構造はしばしば対話状態間の遷移グラフと見なされている。
本稿では,タスク指向対話における構造抽出のための簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T20:18:12Z) - DialogLM: Pre-trained Model for Long Dialogue Understanding and
Summarization [19.918194137007653]
本稿では,長い対話理解と要約のための事前学習フレームワークを提案する。
長い会話の性質を考慮し、生成前学習のためのウィンドウベースの認知的アプローチを提案する。
我々は,対話要約,抽象的質問応答,トピックセグメンテーションのタスクをカバーする,長文対話の5つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-06T13:55:03Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。