論文の概要: Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling
- arxiv url: http://arxiv.org/abs/2204.08152v1
- Date: Mon, 18 Apr 2022 03:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 23:20:46.977862
- Title: Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling
- Title(参考訳): 未来へ:マルチターン対話モデリングのための双方向情報デカップリングネットワーク
- Authors: Yiyang Li, Hai Zhao, Zhuosheng Zhang
- Abstract要約: ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
- 参考スコア(独自算出の注目度): 80.51094098799736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-turn dialogue modeling as a challenging branch of natural language
understanding (NLU), aims to build representations for machines to understand
human dialogues, which provides a solid foundation for multiple downstream
tasks. Recent studies of dialogue modeling commonly employ pre-trained language
models (PrLMs) to encode the dialogue history as successive tokens, which is
insufficient in capturing the temporal characteristics of dialogues. Therefore,
we propose Bidirectional Information Decoupling Network (BiDeN) as a universal
dialogue encoder, which explicitly incorporates both the past and future
contexts and can be generalized to a wide range of dialogue-related tasks.
Experimental results on datasets of different downstream tasks demonstrate the
universality and effectiveness of our BiDeN.
- Abstract(参考訳): 自然言語理解(nlu)の挑戦的な分野としてのマルチターン対話モデリングは、機械が人間の対話を理解するための表現を構築することを目的としている。
近年の対話モデル研究では,対話履歴を逐次トークンとしてエンコードするために,事前学習言語モデル(PrLM)が一般的であり,対話の時間的特性を捉えるには不十分である。
そこで本稿では,双方向情報デカップリングネットワーク(Bidirect Information Decoupling Network, BiDeN)を,過去と将来の両方のコンテキストを明示的に組み込んだユニバーサル対話エンコーダとして提案する。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
関連論文リスト
- FutureTOD: Teaching Future Knowledge to Pre-trained Language Model for
Task-Oriented Dialogue [20.79359173822053]
本稿では,対話前学習モデルFutureTODを提案する。
我々の直感は、良い対話表現はどちらも局所的な文脈情報を学び、将来の情報を予測することである。
論文 参考訳(メタデータ) (2023-06-17T10:40:07Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - HybriDialogue: An Information-Seeking Dialogue Dataset Grounded on
Tabular and Textual Data [87.67278915655712]
我々は、ウィキペディアのテキストとテーブルの両方を基盤とした、クラウドソーシングされた自然な会話からなる新しい対話データセットHybriDialogueを提示する。
これらの会話は、複雑なマルチホップ質問をシンプルで現実的なマルチターン対話に分解することで生成される。
論文 参考訳(メタデータ) (2022-04-28T00:52:16Z) - Graph Based Network with Contextualized Representations of Turns in
Dialogue [0.0]
対話に基づく関係抽出(RE)は、対話に現れる2つの引数間の関係を抽出することを目的としている。
本稿では,対話の理解方法に着目したTUCORE-GCN(TUrn Context aware Graph Convolutional Network)を提案する。
論文 参考訳(メタデータ) (2021-09-09T03:09:08Z) - Dialogue State Tracking with Multi-Level Fusion of Predicted Dialogue
States and Conversations [2.6529642559155944]
予測対話状態と会話ネットワークの多レベル融合による対話状態追跡を提案する。
本モデルでは,各発話,対応する最終対話状態,対話スロット間の相互作用をモデル化することにより,各対話ターンに関する情報を抽出する。
論文 参考訳(メタデータ) (2021-07-12T02:30:30Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Video-Grounded Dialogues with Pretrained Generation Language Models [88.15419265622748]
我々は、ビデオ地上対話を改善するために、事前学習された言語モデルのパワーを利用する。
本稿では,シーケンス・ツー・グラウンドの対話タスクを,シーケンス・トゥ・グラウンドのタスクとして定式化するフレームワークを提案する。
我々のフレームワークは、微調整の言語モデルで複数のモダリティにまたがる依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2020-06-27T08:24:26Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。