論文の概要: Towards Robust Online Dialogue Response Generation
- arxiv url: http://arxiv.org/abs/2203.03168v1
- Date: Mon, 7 Mar 2022 06:51:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 02:01:45.584965
- Title: Towards Robust Online Dialogue Response Generation
- Title(参考訳): ロバストオンライン対話応答生成に向けて
- Authors: Leyang Cui, Fandong Meng, Yijin Liu, Jie Zhou, Yue Zhang
- Abstract要約: これは、トレーニングと実世界のテストの相違によって引き起こされる可能性がある、と私たちは主張する。
本稿では, 発話レベルサンプリングと半発話レベルサンプリングの両方からなる階層的サンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 62.99904593650087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although pre-trained sequence-to-sequence models have achieved great success
in dialogue response generation, chatbots still suffer from generating
inconsistent responses in real-world practice, especially in multi-turn
settings. We argue that this can be caused by a discrepancy between training
and real-world testing. At training time, chatbot generates the response with
the golden context, while it has to generate based on the context consisting of
both user utterances and the model predicted utterances during real-world
testing. With the growth of the number of utterances, this discrepancy becomes
more serious in the multi-turn settings. In this paper, we propose a
hierarchical sampling-based method consisting of both utterance-level sampling
and semi-utterance-level sampling, to alleviate the discrepancy, which
implicitly increases the dialogue coherence. We further adopt reinforcement
learning and re-ranking methods to explicitly optimize the dialogue coherence
during training and inference, respectively. Empirical experiments show the
effectiveness of the proposed methods for improving the robustness of chatbots
in real practice.
- Abstract(参考訳): 事前訓練されたシーケンス・ツー・シーケンスモデルは対話応答生成において大きな成功を収めているが、チャットボットは現実の実践、特にマルチターン設定において一貫性のない応答を生成することに苦慮している。
これはトレーニングと実世界のテストの相違によって引き起こされる可能性がある、と私たちは主張する。
トレーニング時にチャットボットはゴールデンコンテキストで応答を生成し、実際のテスト中にユーザの発話とモデルが予測した発話の両方からなるコンテキストに基づいて生成する必要がある。
発話数の増加に伴い、この不一致はマルチターン設定においてより深刻になる。
本稿では,発話レベルのサンプリングと半発話レベルのサンプリングの両方からなる階層的なサンプリングベース手法を提案する。
さらに,強化学習と再ランキング手法を採用し,訓練と推論の対話コヒーレンスを明示的に最適化する。
実運用におけるチャットボットのロバスト性向上のための提案手法の有効性を示す実験を行った。
関連論文リスト
- Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - Improving a sequence-to-sequence nlp model using a reinforcement
learning policy algorithm [0.0]
対話生成の現在のニューラルネットワークモデルは、おしゃべりエージェントの回答を生成する上で非常に有望である。
しかし、彼らは発話を1度ずつ予測し、将来の結果に対する彼らの影響を無視している。
本研究は,対話の長期的成功に基づくニューラルな会話モデル構築に向けた予備的なステップを記念するものである。
論文 参考訳(メタデータ) (2022-12-28T22:46:57Z) - DialAug: Mixing up Dialogue Contexts in Contrastive Learning for Robust
Conversational Modeling [3.3578533367912025]
本稿では,対話コンテキストの拡張バージョンを学習目的に組み込むフレームワークを提案する。
提案手法は,従来のデータ拡張手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-15T23:39:41Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - Automatic Curriculum Learning With Over-repetition Penalty for Dialogue
Policy Learning [8.744026064255337]
ACL-DQN(Automatic Curriculum Learning-based Deep Q-Network)という新しいフレームワークを提案し,自動カリキュラム学習のための対話方針を実現する。
教師モデルは、有意義な順序のカリキュラムを配置し、対話エージェントの学習進捗を監視して自動的に調整する。
実験により,ACL-DQNは,統計的に有意なマージンを有する対話タスクの有効性と安定性を著しく向上することが示された。
論文 参考訳(メタデータ) (2020-12-28T02:44:49Z) - DialogBERT: Discourse-Aware Response Generation via Learning to Recover
and Rank Utterances [18.199473005335093]
本稿では,従来の PLM に基づく対話モデルを強化した対話応答生成モデルである DialogBERT を提案する。
発話間の談話レベルのコヒーレンスを効果的に把握するために,マスク付き発話回帰を含む2つの訓練目標を提案する。
3つのマルチターン会話データセットの実験により、我々のアプローチがベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2020-12-03T09:06:23Z) - Group-wise Contrastive Learning for Neural Dialogue Generation [29.749195182401344]
対話生成に比較学習を導入し、モデルが肯定的発話と否定的発話の差を明示的に知覚する。
ヒトの会話におけるマルチマッピング関係を管理するために,グループワイド二重サンプリングによる対照対話学習を強化した。
論文 参考訳(メタデータ) (2020-09-16T08:28:30Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Learning an Unreferenced Metric for Online Dialogue Evaluation [53.38078951628143]
本稿では,大規模な事前学習言語モデルを用いて発話の潜在表現を抽出する非参照自動評価指標を提案する。
提案手法は,オンライン環境でのアノテーションと高い相関性を実現すると同時に,推論時に比較に真の応答を必要としないことを示す。
論文 参考訳(メタデータ) (2020-05-01T20:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。