論文の概要: Transformer-Based Conditioned Variational Autoencoder for Dialogue
Generation
- arxiv url: http://arxiv.org/abs/2210.12326v1
- Date: Sat, 22 Oct 2022 01:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:04:22.608897
- Title: Transformer-Based Conditioned Variational Autoencoder for Dialogue
Generation
- Title(参考訳): 対話生成のためのトランスベース条件付き変分オートエンコーダ
- Authors: Huihui Yang
- Abstract要約: CVAE構造を持つTransformerに基づく新たな対話モデル(CVAE-T)を作成する。
我々は、事前訓練されたモデルを用いて、いくつかのキー n-gram を応答で書き直し、一連の負の例を得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In human dialogue, a single query may elicit numerous appropriate responses.
The Transformer-based dialogue model produces frequently occurring sentences in
the corpus since it is a one-to-one mapping function. CVAE is a technique for
reducing generic replies. In this paper, we create a new dialogue model
(CVAE-T) based on the Transformer with CVAE structure. We use a pre-trained MLM
model to rewrite some key n-grams in responses to obtain a series of negative
examples, and introduce a regularization term during training to explicitly
guide the latent variable in learning the semantic differences between each
pair of positive and negative examples. Experiments suggest that the method we
design is capable of producing more informative replies.
- Abstract(参考訳): 人間の対話では、単一のクエリが多数の適切な応答を引き出すことがある。
Transformerベースの対話モデルは、1対1のマッピング機能であるため、コーパス内で頻繁に発生する文を生成する。
CVAEは一般的な応答を減らす技術である。
本稿では,CVAE構造を持つTransformerに基づく新たな対話モデル(CVAE-T)を作成する。
我々は、事前学習されたMLMモデルを用いて、いくつかの重要なn-gramを応答に書き直し、一連の負の例を得るとともに、トレーニング中に正規化項を導入し、各正の例と負の例のペア間の意味的差異を学習する際に潜伏変数を明示的にガイドする。
実験は、我々が設計する手法がより有益な応答を生成できることを示唆する。
関連論文リスト
- MAQA: A Multimodal QA Benchmark for Negation [12.07804279906535]
マルチモーダル学習は、事前学習された大規模言語モデル(LLM)の表現力の恩恵を受けることができる
本稿では,AudioSetのラベル付き音楽ビデオから適応したマルチモーダル質問応答(QA)ベンチマークを提案する。
モデルサイズに関わらず,マルチモーダル変圧器の標準的な微調整手法では,否定を正しく解釈することができないことを示す。
論文 参考訳(メタデータ) (2023-01-09T10:11:23Z) - Paragraph-based Transformer Pre-training for Multi-Sentence Inference [99.59693674455582]
マルチ候補推論タスクの微調整に使用する場合,一般的な事前学習型トランスフォーマーは性能が良くないことを示す。
次に、複数の入力文にまたがる段落レベルの意味をモデル化する新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2022-05-02T21:41:14Z) - DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for
Dialog Response Generation [80.45816053153722]
DialogVEDは、拡張エンコーダデコーダ事前トレーニングフレームワークに連続潜伏変数を導入し、応答の関連性と多様性を高める。
我々は,PersonaChat,DailyDialog,DSTC7-AVSDベンチマークを用いて応答生成実験を行った。
論文 参考訳(メタデータ) (2022-04-27T16:18:15Z) - Sentence Bottleneck Autoencoders from Transformer Language Models [53.350633961266375]
我々は、事前訓練されたフリーズトランスフォーマー言語モデルから文レベルのオートエンコーダを構築する。
我々は、文ボトルネックと1層修飾トランスフォーマーデコーダのみを訓練しながら、マスク付き言語モデリングの目的を生成的・認知的言語として適応する。
本研究では,テキスト類似性タスク,スタイル転送,単一文分類タスクにおける事前学習されたトランスフォーマーからの表現をGLUEベンチマークで抽出する手法よりも,大規模な事前学習モデルよりも少ないパラメータを用いて,より高品質な文表現を実現することを示す。
論文 参考訳(メタデータ) (2021-08-31T19:39:55Z) - Improving Response Quality with Backward Reasoning in Open-domain
Dialogue Systems [53.160025961101354]
本稿では,バニラエンコーダデコーダトレーニングに後方推論ステップを追加することで,生成モデルを双方向にトレーニングすることを提案する。
提案する後方推論ステップは、モデルがより有益で一貫性のあるコンテンツを生成するように促す。
副次的な情報を導入することなく応答品質を向上させることができる。
論文 参考訳(メタデータ) (2021-04-30T20:38:27Z) - Generating Dialogue Responses from a Semantic Latent Space [75.18449428414736]
語彙のエンドツーエンド分類に代わる方法を提案する。
潜在空間上の回帰タスクとして,プロンプトと応答のペア関係を学習する。
人間の評価は、連続した空間でタスクを学習すると、関連性と情報性の両方を持つ応答が生成されることを示した。
論文 参考訳(メタデータ) (2020-10-04T19:06:16Z) - Variational Transformers for Diverse Response Generation [71.53159402053392]
変分変換器(VT)は、変分自己注意フィードフォワードシーケンスモデルである。
VTはトランスフォーマーの並列化性と大域的受容場計算とCVAEの変動特性を組み合わせる。
本稿では,1)大域潜伏変数を用いた談話レベルの多様性のモデル化,2)細粒潜伏変数の列によるトランスフォーマーデコーダの拡張,の2種類のVTについて検討する。
論文 参考訳(メタデータ) (2020-03-28T07:48:02Z) - An Empirical Investigation of Pre-Trained Transformer Language Models
for Open-Domain Dialogue Generation [23.343006562849126]
本稿では,オープンドメイン対話生成作業のための事前学習型トランスフォーマーに基づく自動回帰言語モデルについて実験的に検討する。
事前訓練と微調整の訓練パラダイムは、学習を行うために使用される。
実験は、Weibo、Douban、Reddit、DailyDialog、Persona-Chatといった典型的なシングルターンとマルチターンの対話コーパスで行われる。
論文 参考訳(メタデータ) (2020-03-09T15:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。