論文の概要: Adaptive Parameterization for Neural Dialogue Generation
- arxiv url: http://arxiv.org/abs/2001.06626v1
- Date: Sat, 18 Jan 2020 08:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 05:04:34.768964
- Title: Adaptive Parameterization for Neural Dialogue Generation
- Title(参考訳): ニューラルダイアログ生成のための適応パラメータ化
- Authors: Hengyi Cai, Hongshen Chen, Cheng Zhang, Yonghao Song, Xiaofang Zhao,
Dawei Yin
- Abstract要約: 本稿では,bf適応型bfニューラルbf対話生成モデルtextscAdaNDを提案する。
各会話に対して、モデルは入力コンテキストを参照してエンコーダ・デコーダのパラメータを生成する。
大規模実世界の会話データセットを用いて行った実験から,定量的指標と人的評価の両面において,本モデルが優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 39.199204415979196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural conversation systems generate responses based on the
sequence-to-sequence (SEQ2SEQ) paradigm. Typically, the model is equipped with
a single set of learned parameters to generate responses for given input
contexts. When confronting diverse conversations, its adaptability is rather
limited and the model is hence prone to generate generic responses. In this
work, we propose an {\bf Ada}ptive {\bf N}eural {\bf D}ialogue generation
model, \textsc{AdaND}, which manages various conversations with
conversation-specific parameterization. For each conversation, the model
generates parameters of the encoder-decoder by referring to the input context.
In particular, we propose two adaptive parameterization mechanisms: a
context-aware and a topic-aware parameterization mechanism. The context-aware
parameterization directly generates the parameters by capturing local semantics
of the given context. The topic-aware parameterization enables parameter
sharing among conversations with similar topics by first inferring the latent
topics of the given context and then generating the parameters with respect to
the distributional topics. Extensive experiments conducted on a large-scale
real-world conversational dataset show that our model achieves superior
performance in terms of both quantitative metrics and human evaluations.
- Abstract(参考訳): ニューラルネットワークシステムはシーケンス・ツー・シーケンス(SEQ2SEQ)パラダイムに基づいた応答を生成する。
典型的には、モデルは与えられた入力コンテキストに対して応答を生成するために単一の学習パラメータセットを備えている。
多様な会話に直面する場合、適応性はかなり制限され、モデルが一般的な応答を生成する傾向がある。
本研究では,会話特有のパラメータ化を伴う様々な会話を管理する,"bf ada}ptive {\bf n}eural {\bf d}ialogue生成モデル, \textsc{adand} を提案する。
各会話に対して、モデルは入力コンテキストを参照してエンコーダ・デコーダのパラメータを生成する。
特に,文脈認識機構とトピック認識パラメータ化機構の2つの適応パラメータ化機構を提案する。
context-awareパラメータ化は、与えられたコンテキストのローカルセマンティクスをキャプチャすることで、パラメータを直接生成する。
トピックアウェアパラメータ化は、まず与えられたコンテキストの潜在トピックを推論し、次に分布トピックに関するパラメータを生成することで、類似トピックとの会話間のパラメータ共有を可能にする。
大規模実世界対話型データセットを用いた大規模実験の結果, 定量的指標と人的評価の両方において, 優れた性能が得られた。
関連論文リスト
- Explaining Datasets in Words: Statistical Models with Natural Language Parameters [66.69456696878842]
本稿では, クラスタリング, 時系列, 分類モデルなど, 自然言語の述語によってパラメータ化される統計モデル群を紹介する。
当社のフレームワークは、ユーザチャット対話の分類、時間の経過とともにどのように進化するかの特徴付け、一方の言語モデルが他方よりも優れているカテゴリを見つけることなど、幅広い問題に適用しています。
論文 参考訳(メタデータ) (2024-09-13T01:40:20Z) - Generating Data with Text-to-Speech and Large-Language Models for Conversational Speech Recognition [48.527630771422935]
複数話者対話型ASRのための合成データ生成パイプラインを提案する。
我々は、電話と遠隔会話音声設定のためのWhisper ASRモデルを微調整して評価を行う。
論文 参考訳(メタデータ) (2024-08-17T14:47:05Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - Sequential Topic Selection Model with Latent Variable for Topic-Grounded
Dialogue [21.1427816176227]
我々は,すべての会話における話題遷移を活用するために,SGTA(Sequential Global Topic Attention)という新しいアプローチを提案する。
我々のモデルは予測および生成タスクの競争ベースラインを上回っている。
論文 参考訳(メタデータ) (2022-10-17T07:34:14Z) - A Reinforcement Learning Framework with Description Language for
Critical Driving Scenario Generation [2.00757246016556]
本稿では,タスク評価の高速化のための重要なシナリオを生成するフレームワークを提案する。
具体的には,まずシナリオをモデル化するための記述言語BTScenarioを提案する。
次に、強化学習を用いて臨界パラメータの組み合わせを探索する。
論文 参考訳(メタデータ) (2022-09-21T02:42:41Z) - Conversational Speech Recognition By Learning Conversation-level
Characteristics [25.75615870266786]
本稿では,会話レベルの特徴を主成分とする対話型ASRモデルを提案する。
2つのマンダリン会話型ASRタスクの実験により、提案モデルが最大12%の相対的文字誤り率(CER)を減少させることを示した。
論文 参考訳(メタデータ) (2022-02-16T04:33:05Z) - A Discrete Variational Recurrent Topic Model without the
Reparametrization Trick [16.54912614895861]
離散確率変数を用いたニューラルトピックモデルの学習方法を示す。
複数のコーパスにまたがってパープレキシティと文書理解が改善された。
論文 参考訳(メタデータ) (2020-10-22T20:53:44Z) - Response Selection for Multi-Party Conversations with Dynamic Topic
Tracking [63.15158355071206]
我々は、応答と関連する会話コンテキストの間のトピックを一致させるために、動的トピック追跡タスクとして応答選択をフレーム化する。
本研究では,大規模な事前学習モデルによる効率的な符号化を支援する新しいマルチタスク学習フレームワークを提案する。
DSTC-8 Ubuntu IRCデータセットの実験結果は、応答選択とトピックのアンタングル化タスクにおける最先端の結果を示している。
論文 参考訳(メタデータ) (2020-10-15T14:21:38Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。