論文の概要: Dior-CVAE: Pre-trained Language Models and Diffusion Priors for
Variational Dialog Generation
- arxiv url: http://arxiv.org/abs/2305.15025v2
- Date: Mon, 23 Oct 2023 18:51:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 00:33:48.458169
- Title: Dior-CVAE: Pre-trained Language Models and Diffusion Priors for
Variational Dialog Generation
- Title(参考訳): Dior-CVAE:変分ダイアログ生成のための事前学習言語モデルと拡散先行
- Authors: Tianyu Yang and Thy Thy Tran and Iryna Gurevych
- Abstract要約: Dior-CVAEは階層型条件変分オートエンコーダ(CVAE)である。
拡散モデルを用いて、従来の分布の複雑さを増大させ、PLMが生成した分布との整合性を高める。
2つのオープンドメインダイアログデータセットを対象とした実験により,大規模ダイアログ事前学習を必要とせずに,より多様な応答を生成できることが判明した。
- 参考スコア(独自算出の注目度): 70.2283756542824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current variational dialog models have employed pre-trained language models
(PLMs) to parameterize the likelihood and posterior distributions. However, the
Gaussian assumption made on the prior distribution is incompatible with these
distributions, thus restricting the diversity of generated responses. These
models also suffer from posterior collapse, i.e., the decoder tends to ignore
latent variables and directly access information captured in the encoder
through the cross-attention mechanism. In this work, we propose Dior-CVAE, a
hierarchical conditional variational autoencoder (CVAE) with diffusion priors
to address these challenges. We employ a diffusion model to increase the
complexity of the prior distribution and its compatibility with the
distributions produced by a PLM. Also, we propose memory dropout to the
cross-attention mechanism, which actively encourages the use of latent
variables for response generation. Overall, experiments across two commonly
used open-domain dialog datasets show that our method can generate more diverse
responses without large-scale dialog pre-training. Code is available at
https://github.com/UKPLab/dior-cvae.
- Abstract(参考訳): 現在の変分ダイアログモデルは、確率分布と後方分布をパラメータ化するために事前学習言語モデル(plm)を採用している。
しかし、事前分布に基づくガウスの仮定はこれらの分布と相容れないため、生成された応答の多様性が制限される。
これらのモデルはまた後方崩壊、すなわちデコーダは潜在変数を無視し、クロスアテンション機構を介してエンコーダでキャプチャされた情報に直接アクセスする傾向がある。
本稿では,これらの課題に対処するために,拡散前の階層型条件付き変分オートエンコーダであるDior-CVAEを提案する。
拡散モデルを用いて、従来の分布の複雑さと、PLMが生成した分布との整合性を高める。
また,応答生成のための潜在変数の使用を積極的に奨励するクロスアテンション機構へのメモリドロップアウトを提案する。
一般に使われている2つのオープンドメインダイアログデータセットを用いた実験により,大規模ダイアログ事前学習を必要とせずに,より多様な応答を生成できることがわかった。
コードはhttps://github.com/ukplab/dior-cvaeで入手できる。
関連論文リスト
- DiffusionDialog: A Diffusion Model for Diverse Dialog Generation with Latent Space [7.131920232495329]
現実の会話では、内容は多様であり、多種多様な世代を必要とする一対多の問題が存在する。
以前の研究では、離散型あるいはガウス型連続潜伏変数を導入し、一対多の問題に対処しようとした。
拡散モデルの助けを借りて対話生成の多様性を高める新しい手法であるDiffusionDialogを提案する。
論文 参考訳(メタデータ) (2024-04-10T05:56:46Z) - Unified Generation, Reconstruction, and Representation: Generalized Diffusion with Adaptive Latent Encoding-Decoding [90.77521413857448]
深層生成モデルは,3つのコア機能 – 新たなインスタンスの生成,入力の再構築,コンパクト表現の学習 – に固定されている。
一般化逆変換拡散確率モデル(EDDPM)を導入する。
EDDPMはパラメタライズされた符号化復号を導入することで標準拡散におけるガウス雑音化を一般化する。
テキスト、タンパク質、画像の実験は、多様なデータやタスクを扱う柔軟性を示している。
論文 参考訳(メタデータ) (2024-02-29T10:08:57Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - LafitE: Latent Diffusion Model with Feature Editing for Unsupervised
Multi-class Anomaly Detection [12.596635603629725]
我々は,通常のデータのみにアクセス可能な場合に,複数のクラスに属するオブジェクトから異常を検出する統一モデルを開発した。
まず、生成的アプローチについて検討し、再構成のための潜伏拡散モデルについて検討する。
「拡散モデルの入力特徴空間を修正し、アイデンティティショートカットをさらに緩和する特徴編集戦略を導入する。」
論文 参考訳(メタデータ) (2023-07-16T14:41:22Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Generative Text Modeling through Short Run Inference [47.73892773331617]
本研究は、推論のためのショートランダイナミックスを提案し、潜伏変数の以前の分布から変化し、後続分布によって導かれる少数のランゲヴィンダイナミックスステップを実行する。
短絡力学で訓練されたモデルは、強い言語モデルやVAEベースラインと比較して、より正確にデータをモデル化し、後方崩壊の兆候は示さない。
論文 参考訳(メタデータ) (2021-05-27T09:14:35Z) - To Regularize or Not To Regularize? The Bias Variance Trade-off in
Regularized AEs [10.611727286504994]
AEモデルの生成決定論的品質に及ぼす潜伏剤の影響について検討する。
我々は、FlexAEと呼ばれるモデルが、AEベースの生成モデルのための新しい最先端技術であることを示します。
論文 参考訳(メタデータ) (2020-06-10T14:00:14Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。