論文の概要: Who says like a style of Vitamin: Towards Syntax-Aware
DialogueSummarization using Multi-task Learning
- arxiv url: http://arxiv.org/abs/2109.14199v1
- Date: Wed, 29 Sep 2021 05:30:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 23:31:57.654543
- Title: Who says like a style of Vitamin: Towards Syntax-Aware
DialogueSummarization using Multi-task Learning
- Title(参考訳): ビタミンのスタイルのように言う人:マルチタスク学習を用いた構文認識対話要約を目指して
- Authors: Seolhwa Lee, Kisu Yang, Chanjun Park, Jo\~ao Sedoc, Heuiseok Lim
- Abstract要約: 個々の話者からの発声と独特の統語構造との関係に焦点をあてる。
話者は、音声プリントのような言語情報を含むことができる独自のテキストスタイルを持つ。
構文認識情報と対話要約の両方をマルチタスクで学習する。
- 参考スコア(独自算出の注目度): 2.251583286448503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abstractive dialogue summarization is a challenging task for several reasons.
First, most of the important pieces of information in a conversation are
scattered across utterances through multi-party interactions with different
textual styles. Second, dialogues are often informal structures, wherein
different individuals express personal perspectives, unlike text summarization,
tasks that usually target formal documents such as news articles. To address
these issues, we focused on the association between utterances from individual
speakers and unique syntactic structures. Speakers have unique textual styles
that can contain linguistic information, such as voiceprint. Therefore, we
constructed a syntax-aware model by leveraging linguistic information (i.e.,
POS tagging), which alleviates the above issues by inherently distinguishing
sentences uttered from individual speakers. We employed multi-task learning of
both syntax-aware information and dialogue summarization. To the best of our
knowledge, our approach is the first method to apply multi-task learning to the
dialogue summarization task. Experiments on a SAMSum corpus (a large-scale
dialogue summarization corpus) demonstrated that our method improved upon the
vanilla model. We further analyze the costs and benefits of our approach
relative to baseline models.
- Abstract(参考訳): 抽象対話要約はいくつかの理由から難しい課題である。
まず、会話における重要な情報の大部分は、さまざまなテキストスタイルによるマルチパーティインタラクションを通じて、発話に散在する。
第二に、対話はしばしば非公式な構造であり、個々の個人は、テキスト要約とは異なり、通常、ニュース記事のような形式的な文書をターゲットとするタスクを個人的視点で表現する。
これらの課題に対処するため,各話者の発話と独特の構文構造との関係に着目した。
話者は、音声プリントのような言語情報を含むことができる独自のテキストスタイルを持つ。
そこで,我々は言語情報(posタグ)を活用して構文認識モデルを構築し,個々の話者から発する文を本質的に区別することで,上記の問題を軽減した。
我々は,構文認識情報と対話要約の両方のマルチタスク学習を行った。
我々の知る限りでは、対話要約タスクにマルチタスク学習を適用する最初の方法である。
SAMSumコーパス(大規模対話要約コーパス)の実験により,バニラモデルにより改善された。
我々は、ベースラインモデルに対するアプローチのコストとメリットをさらに分析します。
関連論文リスト
- Increasing faithfulness in human-human dialog summarization with Spoken Language Understanding tasks [0.0]
本稿では,タスク関連情報を組み込むことによって,要約処理の促進を図ることを提案する。
その結果,タスク関連情報とモデルを統合することで,単語の誤り率が異なる場合でも要約精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-09-16T08:15:35Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Topic-Aware Contrastive Learning for Abstractive Dialogue Summarization [41.75442239197745]
本研究は,コヒーレンス検出とサブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サミマリ・ジェネレーションという2つのトピック・アウェア・コントラスト学習目標を提案する。
ベンチマークデータセットの実験では、提案手法が強いベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-09-10T17:03:25Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。