論文の概要: MPC-BERT: A Pre-Trained Language Model for Multi-Party Conversation
Understanding
- arxiv url: http://arxiv.org/abs/2106.01541v1
- Date: Thu, 3 Jun 2021 01:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:18:28.732169
- Title: MPC-BERT: A Pre-Trained Language Model for Multi-Party Conversation
Understanding
- Title(参考訳): MPC-BERT:多人数会話理解のための事前学習言語モデル
- Authors: Jia-Chen Gu, Chongyang Tao, Zhen-Hua Ling, Can Xu, Xiubo Geng, Daxin
Jiang
- Abstract要約: MPC理解のための事前学習モデルであるMPC-BERTを提案する。
我々は,MPC-BERTを,話者認識,話者識別,応答選択を含む3つの下流タスクで評価した。
- 参考スコア(独自算出の注目度): 58.95156916558384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, various neural models for multi-party conversation (MPC) have
achieved impressive improvements on a variety of tasks such as addressee
recognition, speaker identification and response prediction. However, these
existing methods on MPC usually represent interlocutors and utterances
individually and ignore the inherent complicated structure in MPC which may
provide crucial interlocutor and utterance semantics and would enhance the
conversation understanding process. To this end, we present MPC-BERT, a
pre-trained model for MPC understanding that considers learning who says what
to whom in a unified model with several elaborated self-supervised tasks.
Particularly, these tasks can be generally categorized into (1) interlocutor
structure modeling including reply-to utterance recognition, identical speaker
searching and pointer consistency distinction, and (2) utterance semantics
modeling including masked shared utterance restoration and shared node
detection. We evaluate MPC-BERT on three downstream tasks including addressee
recognition, speaker identification and response selection. Experimental
results show that MPC-BERT outperforms previous methods by large margins and
achieves new state-of-the-art performance on all three downstream tasks at two
benchmarks.
- Abstract(参考訳): 近年、マルチパーティ会話(mpc)のための様々なニューラルモデルが、住所認識、話者識別、応答予測といった様々なタスクにおいて印象的な改善を達成している。
しかしながら、mpc上のこれらの既存の方法は、通常、個別に対話者および発話を表現し、重要な対話者および発話意味論を提供し、会話理解プロセスを強化するmpcの固有の複雑な構造を無視している。
そこで本研究では,MPC理解のための事前学習モデルであるMPC-BERTを提案する。
特に、これらのタスクは、(1)応答対発話認識、同一話者探索とポインタ整合性区別を含む対話者間構造モデリング、(2)マスキングされた発話復元と共有ノード検出を含む発話セマンティクスモデリングに分類することができる。
我々は,MPC-BERTを,話者認識,話者識別,応答選択を含む3つの下流タスクで評価した。
実験の結果,mpc-bertは従来の手法を高いマージンで上回り,2つのベンチマークで3つの下流タスクすべてにおいて新たな最先端性能を達成できた。
関連論文リスト
- M3TCM: Multi-modal Multi-task Context Model for Utterance Classification in Motivational Interviews [1.8100046713740954]
発話分類のためのマルチモーダル・マルチタスクコンテキストモデルであるM3TCMを提案する。
われわれのアプローチでは、マルチタスク学習を用いて、セラピストとクライアントの振る舞いのジョイントコンポーネントと個別コンポーネントの両方を効果的にモデル化する。
提案手法により,最近導入されたAnnoMIデータセットの発話分類技術は,クライアントで20%,セラピストで15%向上した。
論文 参考訳(メタデータ) (2024-04-04T09:17:22Z) - 'What are you referring to?' Evaluating the Ability of Multi-Modal
Dialogue Models to Process Clarificational Exchanges [65.03196674816772]
参照表現が宛先に対して意図された参照を一意に識別しない場合、参照の曖昧さが対話で生じる。
出席者は、通常、そのような曖昧さをすぐに検知し、メタコミュニケーション、明確化取引所(CE: Meta-communicative, Clarification Exchanges)を使用して、話者と作業する。
ここでは、CRを生成・応答する能力は、マルチモーダルな視覚的基盤を持つ対話モデルのアーキテクチャと目的関数に特定の制約を課していると論じる。
論文 参考訳(メタデータ) (2023-07-28T13:44:33Z) - MPCHAT: Towards Multimodal Persona-Grounded Conversation [54.800425322314105]
我々はペルソナに基づく対話をマルチモーダル領域に拡張し、2つの主要な貢献をする。
まず,MPCHATという対話データセットを提案する。
第2に,マルチモーダル・ペルソナを組み込んだ多モーダル・ペルソナの対話タスクが,統計的に有意な性能向上をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2023-05-27T06:46:42Z) - GIFT: Graph-Induced Fine-Tuning for Multi-Party Conversation
Understanding [51.37738394062851]
GIFTは、様々なトランスフォーマーベースの事前訓練言語モデルを適用して、普遍的なMPC理解を実現する。
4種類のエッジは、グラフ誘発信号と注意機構を統合するように設計されている。
論文 参考訳(メタデータ) (2023-05-16T11:35:24Z) - Multi-tasking Dialogue Comprehension with Discourse Parsing [43.352833140317486]
マルチパーティ対話型MRCタスクにおいて,QAと談話解析(DP)を併用する最初のマルチタスクモデルを提案する。
以上の結果から,相補的なタスクによるトレーニングは,QAタスクだけでなく,DPタスク自体にも効果があることが示唆された。
論文 参考訳(メタデータ) (2021-10-07T08:51:49Z) - Self-supervised Contrastive Cross-Modality Representation Learning for
Spoken Question Answering [29.545937716796082]
音声質問応答 (SQA) は、音声文書と質問の両方をきめ細かな理解を必要とする。
本稿では,自己指導型学習段階とコントラッシブな表現学習段階を併用した音声質問応答のための新しい学習手法を提案する。
本モデルでは,3つのSQAベンチマークの最先端結果が得られた。
論文 参考訳(メタデータ) (2021-09-08T01:13:14Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。