論文の概要: Exploring Effective Information Utilization in Multi-Turn Topic-Driven
Conversations
- arxiv url: http://arxiv.org/abs/2209.00250v1
- Date: Thu, 1 Sep 2022 06:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:42:55.447622
- Title: Exploring Effective Information Utilization in Multi-Turn Topic-Driven
Conversations
- Title(参考訳): 話題駆動対話における効果的な情報活用の探索
- Authors: Jiatong Li, Bin He, Fei Mi
- Abstract要約: We encodeed topic and dialogue history information using certain prompts with multiple channel of Fusion-in-Decoder (FiD)
本稿では,最近のニュースを中心に会話が展開されるNaturalConvという,中国の特定のデータセットに焦点を当てた実験を行った。
- 参考スコア(独自算出の注目度): 11.550422073645425
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conversations are always related to certain topics. However, it is
challenging to fuse dialogue history and topic information from various sources
at the same time in current dialogue generation models because of the input
length limit of pre-trained language models (PLMs). In order to expand the
information that PLMs can utilize, we encode topic and dialogue history
information using certain prompts with multiple channels of Fusion-in-Decoder
(FiD) and explore the influence of three different channel settings. In this
paper, our experiments focus on a specific Chinese dataset named NaturalConv,
where the conversation revolves around a piece of recent news. We thoroughly
compared different dialogue models and different FiD channel settings.
Empirical results show that by combining our proposed whole passage channel
with additional history channel, our methods can achieve competitive
performance on NaturalConv, making it possible to encode various information
from excessively long texts.
- Abstract(参考訳): 会話は常に特定のトピックに関連する。
しかし,既存の対話生成モデルでは,事前学習言語モデル(PLM)の入力長制限のため,様々な情報源からの対話履歴や話題情報を同時に融合することは困難である。
PLMが利用できる情報を拡張するために、我々は、Fusion-in-Decoder(FiD)の複数のチャンネルで特定のプロンプトを用いてトピックと対話履歴情報をエンコードし、3つの異なるチャンネル設定の影響を探る。
本稿では,最近のニュースを中心に会話が展開されるNaturalConvという,中国の特定のデータセットに焦点を当てた実験を行った。
異なる対話モデルと異なるFiDチャンネル設定を徹底的に比較した。
実験の結果,提案した全経路チャネルと追加の履歴チャネルを組み合わせることで,NaturalConv上での競合性能を実現し,過度に長いテキストから様々な情報をエンコードできることがわかった。
関連論文リスト
- Multimodal Dialogue State Tracking [97.25466640240619]
Video-Dialogue Transformer Network (VDTN)は、ビデオと対話の間のコンテキスト依存を学習し、マルチモーダル対話状態を生成する。
VDTNは、オブジェクトレベルの特徴とセグメントレベルの特徴を組み合わせて、ビデオと対話の間のコンテキスト依存を学び、マルチモーダルな対話状態を生成する。
論文 参考訳(メタデータ) (2022-06-16T03:18:42Z) - Beyond the Granularity: Multi-Perspective Dialogue Collaborative
Selection for Dialogue State Tracking [18.172993687706708]
対話状態追跡においては、対話履歴は重要な材料であり、その利用法は異なるモデルによって異なる。
状態更新のために各スロットに対応する対話内容を動的に選択するDiCoS-DSTを提案する。
提案手法は,MultiWOZ 2.1およびMultiWOZ 2.2上での最先端性能を実現し,複数の主流ベンチマークデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-05-20T10:08:45Z) - HybriDialogue: An Information-Seeking Dialogue Dataset Grounded on
Tabular and Textual Data [87.67278915655712]
我々は、ウィキペディアのテキストとテーブルの両方を基盤とした、クラウドソーシングされた自然な会話からなる新しい対話データセットHybriDialogueを提示する。
これらの会話は、複雑なマルチホップ質問をシンプルで現実的なマルチターン対話に分解することで生成される。
論文 参考訳(メタデータ) (2022-04-28T00:52:16Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - An Exploratory Study on Long Dialogue Summarization: What Works and
What's Next [33.1899354772074]
本稿では,長文入力問題に対処し,関連する情報を見つけるための3つの戦略を検証し,長文対話の要約について検討する。
QMSum, MediaSum, SummScreenの3つの長文対話データセットによる実験結果から, 検索・推定パイプラインモデルが最も高い性能を示した。
論文 参考訳(メタデータ) (2021-09-10T01:38:26Z) - Pretrained Language Models for Dialogue Generation with Multiple Input
Sources [101.17537614998805]
本研究では,事前学習した言語モデルGPT2から適応した複数の入力源を持つ対話モデルについて検討する。
異なるソースに対応する複数の異なる注意情報を融合する様々な手法を探索する。
実験結果から, 核融合法は単純な核融合ベースラインよりも, 対話履歴との関連性が高いことがわかった。
論文 参考訳(メタデータ) (2020-10-15T07:53:28Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn
Knowledge-driven Conversation [66.99734491847076]
我々は,中国語の多分野知識駆動会話データセットKdConvを提案する。
私たちのコーパスには3つのドメイン(映画、音楽、旅行)から4.5Kの会話と、平均19.0の回転数で86Kの発話が含まれています。
論文 参考訳(メタデータ) (2020-04-08T16:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。