論文の概要: DiSCoL: Toward Engaging Dialogue Systems through Conversational Line
Guided Response Generation
- arxiv url: http://arxiv.org/abs/2102.02191v1
- Date: Wed, 3 Feb 2021 18:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 17:30:26.632306
- Title: DiSCoL: Toward Engaging Dialogue Systems through Conversational Line
Guided Response Generation
- Title(参考訳): DiSCoL:会話線誘導応答生成による対話システムの拡張に向けて
- Authors: Sarik Ghazarian, Zixi Liu, Tuhin Chakrabarty, Xuezhe Ma, Aram
Galstyan, and Nanyun Peng
- Abstract要約: recentoLは、対話行を制御可能およびコンテンツプランニング要素として活用し、生成モデルをガイドするオープンドメイン対話システムである。
inoLのパイプラインの2つの主要なモジュールは、1)対話コンテキストの関連性および情報的共振を予測し、2)予測共振器に条件付けされた高品質な応答を生成するために訓練された条件付きジェネレータである。
- 参考スコア(独自算出の注目度): 33.53084158275457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Having engaging and informative conversations with users is the utmost goal
for open-domain conversational systems. Recent advances in transformer-based
language models and their applications to dialogue systems have succeeded to
generate fluent and human-like responses. However, they still lack control over
the generation process towards producing contentful responses and achieving
engaging conversations. To achieve this goal, we present \textbf{DiSCoL}
(\textbf{Di}alogue \textbf{S}ystems through \textbf{Co}versational
\textbf{L}ine guided response generation). DiSCoL is an open-domain dialogue
system that leverages conversational lines (briefly \textbf{convlines}) as
controllable and informative content-planning elements to guide the generation
model produce engaging and informative responses. Two primary modules in
DiSCoL's pipeline are conditional generators trained for 1) predicting relevant
and informative convlines for dialogue contexts and 2) generating high-quality
responses conditioned on the predicted convlines. Users can also change the
returned convlines to \textit{control} the direction of the conversations
towards topics that are more interesting for them. Through automatic and human
evaluations, we demonstrate the efficiency of the convlines in producing
engaging conversations.
- Abstract(参考訳): ユーザとのエンゲージメントとインフォメーションを持った会話は、オープンドメインの会話システムにとって最大の目標です。
トランスフォーマティブ言語モデルの最近の進歩と対話システムへの応用は, フルーエントかつヒューマンライクな応答の生成に成功している。
しかし、彼らは、満足のいく反応を生み出し、活発な会話を達成するための生成プロセスの制御をいまだに欠いている。
この目標を達成するために、 \textbf{DiSCoL} (\textbf{Di}alogue \textbf{S}ystems through \textbf{Co}versational \textbf{L}ine guideed response generation) を提示する。
discolは、対話的線(briefly \textbf{convlines})を制御可能かつ情報的コンテンツ計画要素として活用するオープンドメイン対話システムである。
DiSCoLのパイプラインの2つの主要なモジュールは、1)対話コンテキストの関連性および有益なconvlinesを予測するために訓練された条件付きジェネレータと2)予測されたconvlinesに基づいて調整された高品質のレスポンスを生成する。
ユーザーは、返されたconvlinesを、より興味深いトピックに向けた会話の方向を \textit{control} に変更することもできます。
自動評価と人間評価により,会話の対話生成におけるコンボラインの効率性を示す。
関連論文リスト
- Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - Contextual Dynamic Prompting for Response Generation in Task-oriented
Dialog Systems [8.419582942080927]
応答生成はタスク指向対話システムにおいて重要なコンポーネントの1つである。
本稿では,対話コンテキストからプロンプトを学習するテキスト動的プロンプトを実現する手法を提案する。
文脈的動的プロンプトは,3つの絶対点で構造化されたテキスト合成スコア citemehri-etal 2019 を用いて応答生成を改善することを示す。
論文 参考訳(メタデータ) (2023-01-30T20:26:02Z) - FCTalker: Fine and Coarse Grained Context Modeling for Expressive
Conversational Speech Synthesis [75.74906149219817]
Conversational Text-to-Speech (TTS) は、会話の文脈において、適切な言語的・感情的な韻律で発話を合成することを目的としている。
本稿では, 音声生成時に, 微細で粗い文脈依存性を同時に学習する, FCTalkerと呼ばれる新しい表現型会話型TSモデルを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:20:20Z) - Target-Guided Dialogue Response Generation Using Commonsense and Data
Augmentation [32.764356638437214]
ターゲット誘導応答生成のための新しい手法を提案する。
また,既存の対話データセットをターゲット誘導生成のために再利用する手法を提案する。
我々の作業は、一般的に、対話システムの設計者が、システムが生み出す会話をより制御できるようにします。
論文 参考訳(メタデータ) (2022-05-19T04:01:40Z) - End-to-end Spoken Conversational Question Answering: Task, Dataset and
Model [92.18621726802726]
音声による質問応答では、システムは関連する音声書き起こしの中に連続したテキストスパンからの質問に答えるように設計されている。
本稿では,複雑な対話フローをモデル化することを目的とした音声対話型質問応答タスク(SCQA)を提案する。
本研究の目的は,音声記録に基づく対話型質問に対処するシステムを構築することであり,情報収集システムによる様々なモダリティからより多くの手がかりを提供する可能性を探ることである。
論文 参考訳(メタデータ) (2022-04-29T17:56:59Z) - An Approach to Inference-Driven Dialogue Management within a Social
Chatbot [10.760026478889667]
会話を一連の応答生成タスクとしてフレーミングする代わりに、会話を協調推論プロセスとしてモデル化する。
私たちのパイプラインは、このモデリングを3つの幅広い段階で達成します。
このアプローチは、ユーザ入力の潜在意味論、フレキシブルなイニシアティブの取り方、対話コンテキストに新しく一貫性のある応答を理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-31T19:01:07Z) - Fusing task-oriented and open-domain dialogues in conversational agents [12.338220374261343]
2つの対話モードは、友好的な人間のアシスタントが簡単に行うように、同じ会話でシームレスに連携することができる。
本稿では,マルチターン対話におけるTODとODDの融合の問題に対処する。
すなわち、対話は2つのモードから切り替わる。
論文 参考訳(メタデータ) (2021-09-09T09:48:26Z) - Saying No is An Art: Contextualized Fallback Responses for Unanswerable
Dialogue Queries [3.593955557310285]
ほとんどの対話システムは、ランク付けされた応答を生成するためのハイブリッドアプローチに依存している。
ユーザクエリに対して文脈的に認識された応答を生成するニューラルネットワークを設計する。
我々の単純なアプローチでは、依存関係解析のルールと、質問応答ペアの合成データに基づいて微調整されたテキストからテキストへの変換を行う。
論文 参考訳(メタデータ) (2020-12-03T12:34:22Z) - Towards Data Distillation for End-to-end Spoken Conversational Question
Answering [65.124088336738]
音声対話型質問応答タスク(SCQA)を提案する。
SCQAは,音声発話とテキストコーパスから複雑な対話の流れをモデル化することを目的としている。
我々の主な目的は、音声とテキストの両方で会話的な質問に対処するQAシステムを構築することである。
論文 参考訳(メタデータ) (2020-10-18T05:53:39Z) - Controlling Dialogue Generation with Semantic Exemplars [55.460082747572734]
本稿では,経験的応答に現れる意味的フレームを用いて生成をガイドする,経験的対話生成モデルEDGEを提案する。
単語自体の単語ではなく、経験者の意味的フレームに基づく対話生成の制御により、生成した応答の一貫性が向上することを示す。
論文 参考訳(メタデータ) (2020-08-20T17:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。