論文の概要: Exploring Effective Information Utilization in Multi-Turn Topic-Driven
Conversations
- arxiv url: http://arxiv.org/abs/2209.00250v1
- Date: Thu, 1 Sep 2022 06:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:42:55.447622
- Title: Exploring Effective Information Utilization in Multi-Turn Topic-Driven
Conversations
- Title(参考訳): 話題駆動対話における効果的な情報活用の探索
- Authors: Jiatong Li, Bin He, Fei Mi
- Abstract要約: We encodeed topic and dialogue history information using certain prompts with multiple channel of Fusion-in-Decoder (FiD)
本稿では,最近のニュースを中心に会話が展開されるNaturalConvという,中国の特定のデータセットに焦点を当てた実験を行った。
- 参考スコア(独自算出の注目度): 11.550422073645425
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conversations are always related to certain topics. However, it is
challenging to fuse dialogue history and topic information from various sources
at the same time in current dialogue generation models because of the input
length limit of pre-trained language models (PLMs). In order to expand the
information that PLMs can utilize, we encode topic and dialogue history
information using certain prompts with multiple channels of Fusion-in-Decoder
(FiD) and explore the influence of three different channel settings. In this
paper, our experiments focus on a specific Chinese dataset named NaturalConv,
where the conversation revolves around a piece of recent news. We thoroughly
compared different dialogue models and different FiD channel settings.
Empirical results show that by combining our proposed whole passage channel
with additional history channel, our methods can achieve competitive
performance on NaturalConv, making it possible to encode various information
from excessively long texts.
- Abstract(参考訳): 会話は常に特定のトピックに関連する。
しかし,既存の対話生成モデルでは,事前学習言語モデル(PLM)の入力長制限のため,様々な情報源からの対話履歴や話題情報を同時に融合することは困難である。
PLMが利用できる情報を拡張するために、我々は、Fusion-in-Decoder(FiD)の複数のチャンネルで特定のプロンプトを用いてトピックと対話履歴情報をエンコードし、3つの異なるチャンネル設定の影響を探る。
本稿では,最近のニュースを中心に会話が展開されるNaturalConvという,中国の特定のデータセットに焦点を当てた実験を行った。
異なる対話モデルと異なるFiDチャンネル設定を徹底的に比較した。
実験の結果,提案した全経路チャネルと追加の履歴チャネルを組み合わせることで,NaturalConv上での競合性能を実現し,過度に長いテキストから様々な情報をエンコードできることがわかった。
関連論文リスト
- Multi-Granularity Prompts for Topic Shift Detection in Dialogue [13.739991183173494]
対話トピックシフト検出の目標は、会話中の現在のトピックが変更されたか、変更する必要があるかを特定することである。
従来の研究は、事前訓練されたモデルを用いて発話を符号化するトピックシフトの検出に重点を置いていた。
我々は,複数粒度での対話,すなわちラベル,ターン,トピックから話題情報を抽出するために,プロンプトベースのアプローチを採用する。
論文 参考訳(メタデータ) (2023-05-23T12:35:49Z) - History-Aware Hierarchical Transformer for Multi-session Open-domain
Dialogue System [59.78425104243993]
マルチセッションオープンドメイン対話のための履歴認識階層変換器(HAHT)を提案する。
HAHTは歴史会話の長期記憶を維持し、歴史情報を利用して現在の会話状況を理解する。
大規模マルチセッション会話データセットの実験結果は,提案したHAHTモデルがベースラインモデルより一貫して優れていることを示唆している。
論文 参考訳(メタデータ) (2023-02-02T06:54:33Z) - TikTalk: A Video-Based Dialogue Dataset for Multi-Modal Chitchat in Real
World [97.58623810402563]
我々はTikTalkと呼ばれるビデオベースのマルチモーダル対話データセットを導入する。
人気ビデオ共有プラットフォームから38Kのビデオを収集し、その下のユーザーから367Kの会話を投稿した。
ユーザーはビデオのマルチモーダルな体験に基づいて自発的な会話をし、現実世界のchitchatコンテキストを再現する。
論文 参考訳(メタデータ) (2023-01-14T10:18:22Z) - HybriDialogue: An Information-Seeking Dialogue Dataset Grounded on
Tabular and Textual Data [87.67278915655712]
我々は、ウィキペディアのテキストとテーブルの両方を基盤とした、クラウドソーシングされた自然な会話からなる新しい対話データセットHybriDialogueを提示する。
これらの会話は、複雑なマルチホップ質問をシンプルで現実的なマルチターン対話に分解することで生成される。
論文 参考訳(メタデータ) (2022-04-28T00:52:16Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - An Exploratory Study on Long Dialogue Summarization: What Works and
What's Next [33.1899354772074]
本稿では,長文入力問題に対処し,関連する情報を見つけるための3つの戦略を検証し,長文対話の要約について検討する。
QMSum, MediaSum, SummScreenの3つの長文対話データセットによる実験結果から, 検索・推定パイプラインモデルが最も高い性能を示した。
論文 参考訳(メタデータ) (2021-09-10T01:38:26Z) - Pretrained Language Models for Dialogue Generation with Multiple Input
Sources [101.17537614998805]
本研究では,事前学習した言語モデルGPT2から適応した複数の入力源を持つ対話モデルについて検討する。
異なるソースに対応する複数の異なる注意情報を融合する様々な手法を探索する。
実験結果から, 核融合法は単純な核融合ベースラインよりも, 対話履歴との関連性が高いことがわかった。
論文 参考訳(メタデータ) (2020-10-15T07:53:28Z) - KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn
Knowledge-driven Conversation [66.99734491847076]
我々は,中国語の多分野知識駆動会話データセットKdConvを提案する。
私たちのコーパスには3つのドメイン(映画、音楽、旅行)から4.5Kの会話と、平均19.0の回転数で86Kの発話が含まれています。
論文 参考訳(メタデータ) (2020-04-08T16:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。