論文の概要: Progressive Open-Domain Response Generation with Multiple Controllable
Attributes
- arxiv url: http://arxiv.org/abs/2106.14614v1
- Date: Mon, 7 Jun 2021 08:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-04 19:38:07.599970
- Title: Progressive Open-Domain Response Generation with Multiple Controllable
Attributes
- Title(参考訳): 複数の制御可能な属性を持つプログレッシブオープンドメイン応答生成
- Authors: Haiqin Yang, Xiaoyuan Yao, Yiqun Duan, Jianping Shen, Jie Zhong, Kun
Zhang
- Abstract要約: 本稿では,この課題に対処するために,漸進的に訓練された階層型バリデコーダを提案する。
PHEDはTransformerにConditional AutoEncoder (CVAE)をデプロイし、属性の1つの側面を1段階に含める。
PHEDは最先端のニューラルジェネレーションモデルを大きく上回り、期待通り多様な応答を生成する。
- 参考スコア(独自算出の注目度): 13.599621571488033
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: It is desirable to include more controllable attributes to enhance the
diversity of generated responses in open-domain dialogue systems. However,
existing methods can generate responses with only one controllable attribute or
lack a flexible way to generate them with multiple controllable attributes. In
this paper, we propose a Progressively trained Hierarchical Encoder-Decoder
(PHED) to tackle this task. More specifically, PHED deploys Conditional
Variational AutoEncoder (CVAE) on Transformer to include one aspect of
attributes at one stage. A vital characteristic of the CVAE is to separate the
latent variables at each stage into two types: a global variable capturing the
common semantic features and a specific variable absorbing the attribute
information at that stage. PHED then couples the CVAE latent variables with the
Transformer encoder and is trained by minimizing a newly derived ELBO and
controlled losses to produce the next stage's input and produce responses as
required. Finally, we conduct extensive evaluations to show that PHED
significantly outperforms the state-of-the-art neural generation models and
produces more diverse responses as expected.
- Abstract(参考訳): オープンドメイン対話システムで生成された応答の多様性を高めるために、より制御可能な属性を含めることが望ましい。
しかし、既存のメソッドは1つの制御可能な属性だけでレスポンスを生成できるし、複数の制御可能な属性でそれらを生成する柔軟な方法がない。
本稿では,この課題に対処するための階層型エンコーダデコーダ(PHED)を提案する。
より具体的には、PHEDはConditional Variational AutoEncoder (CVAE)をTransformerにデプロイし、1段階で属性の1つの側面を含むようにする。
CVAEの重要な特徴は、各ステージにおける潜伏変数を、共通の意味的特徴をキャプチャするグローバル変数と、そのステージで属性情報を吸収する特定の変数の2つのタイプに分けることである。
PHEDはCVAE潜伏変数とTransformerエンコーダを結合し、新たに派生したELBOを最小化し、損失を制御して次のステージの入力を生成し、必要に応じて応答を生成する。
最後に, phedが最先端のニューラルジェネレーションモデルを大幅に上回り, 期待通りに多様な応答を生成することを示すために, 広範な評価を行った。
関連論文リスト
- Generating Features with Increased Crop-related Diversity for Few-Shot
Object Detection [35.652092907690694]
2段階のオブジェクト検出器はオブジェクトの提案を生成し、イメージ内のオブジェクトを検出するためにそれらを分類する。
提案にはオブジェクトを完全に含まないことが多いが、多くの点で重複している。
本稿では,作物の多様性が増大するデータを生成することのできる,新しい変分自動エンコーダに基づくデータ生成モデルを提案する。
論文 参考訳(メタデータ) (2023-04-11T09:47:21Z) - Recurrence Boosts Diversity! Revisiting Recurrent Latent Variable in
Transformer-Based Variational AutoEncoder for Diverse Text Generation [85.5379146125199]
変分自動エンコーダ(VAE)はテキスト生成において広く採用されている。
本稿ではトランスフォーマーをベースとしたリカレントVAE構造であるTRACEを提案する。
論文 参考訳(メタデータ) (2022-10-22T10:25:35Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - Controllable Dialogue Generation with Disentangled Multi-grained Style
Specification and Attribute Consistency Reward [47.96949534259019]
マルチ属性制約下で応答生成を行うための制御可能な対話生成モデルを提案する。
一般的に使用される制御属性を,応答生成に対する影響の粒度が異なる大域的および局所的な属性に分類する。
我々のモデルは、応答品質、コンテンツ多様性、制御性の観点から、競争ベースラインを大幅に上回ることができる。
論文 参考訳(メタデータ) (2021-09-14T14:29:38Z) - Is Disentanglement enough? On Latent Representations for Controllable
Music Generation [78.8942067357231]
強い生成デコーダが存在しない場合、アンタングル化は必ずしも制御性を意味するものではない。
VAEデコーダに対する潜伏空間の構造は、異なる属性を操作するための生成モデルの能力を高める上で重要な役割を果たす。
論文 参考訳(メタデータ) (2021-08-01T18:37:43Z) - Dizygotic Conditional Variational AutoEncoder for Multi-Modal and
Partial Modality Absent Few-Shot Learning [19.854565192491123]
ディジゴティック条件変分オートエンコーダ(DCVAE)と呼ばれる新しいマルチモーダルデータ拡張手法を提案する。
DCVAEは、2つの条件変分オートエンコーダ(CVAE)を同じシードでペアリングすることで特徴合成を行うが、ジジゴティック共生方式では異なるモダリティ条件を行う。
2つのCVAEの生成した特徴を適応的に組み合わせて最終特徴を与える。
論文 参考訳(メタデータ) (2021-06-28T08:29:55Z) - Transformer-based Conditional Variational Autoencoder for Controllable
Story Generation [39.577220559911055]
ニューラルストーリー生成のための大規模潜時変数モデル (LVM) を, 生成効率と制御性という2つのスレッドで検討した。
我々は、トランスフォーマーの時代において、本質的に表現学習の力である潜在変数モデリングを復活させることを提唱する。
具体的には,遅延表現ベクトルをTransformerベースの事前学習アーキテクチャと統合し,条件付き変分オートエンコーダ(CVAE)を構築する。
論文 参考訳(メタデータ) (2021-01-04T08:31:11Z) - Relaxed-Responsibility Hierarchical Discrete VAEs [3.976291254896486]
textitRelaxed-Responsibility Vector-Quantisationを導入する。
我々は、様々な標準データセットに対して、最先端のビット/ディミット結果を得る。
論文 参考訳(メタデータ) (2020-07-14T19:10:05Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z) - Variational Transformers for Diverse Response Generation [71.53159402053392]
変分変換器(VT)は、変分自己注意フィードフォワードシーケンスモデルである。
VTはトランスフォーマーの並列化性と大域的受容場計算とCVAEの変動特性を組み合わせる。
本稿では,1)大域潜伏変数を用いた談話レベルの多様性のモデル化,2)細粒潜伏変数の列によるトランスフォーマーデコーダの拡張,の2種類のVTについて検討する。
論文 参考訳(メタデータ) (2020-03-28T07:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。