論文の概要: Latent Diffusion for Language Generation
- arxiv url: http://arxiv.org/abs/2212.09462v1
- Date: Mon, 19 Dec 2022 13:57:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 15:00:50.337899
- Title: Latent Diffusion for Language Generation
- Title(参考訳): 言語生成のための潜時拡散
- Authors: Justin Lovelace and Varsha Kishore and Chao Wan and Eliot Shekhtman
and Kilian Weinberger
- Abstract要約: 言語への拡散を適応しようとする最近の試みは、自己回帰言語生成の代替として拡散を提示している。
本研究では,事前学習したエンコーダ・デコーダモデルの潜在空間において連続拡散モデルを学習できることを実証する。
我々の潜伏拡散モデルは、強い自己回帰ベースラインよりも、データ分布から新しいテキストをサンプリングし、制御可能な生成を可能にする。
- 参考スコア(独自算出の注目度): 2.099922236065961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have achieved great success in modeling continuous data
modalities such as images, audio, and video, but have seen limited use in
discrete domains such as language. Recent attempts to adapt diffusion to
language have presented diffusion as an alternative to autoregressive language
generation. We instead view diffusion as a complementary method that can
augment the generative capabilities of existing pre-trained language models. We
demonstrate that continuous diffusion models can be learned in the latent space
of a pre-trained encoder-decoder model, enabling us to sample continuous latent
representations that can be decoded into natural language with the pre-trained
decoder. We show that our latent diffusion models are more effective at
sampling novel text from data distributions than a strong autoregressive
baseline and also enable controllable generation.
- Abstract(参考訳): 拡散モデルは、画像、音声、ビデオなどの連続データモダリティのモデリングで大きな成功を収めてきたが、言語のような離散的な領域での使用は限られている。
言語に拡散を適用する最近の試みは、自己回帰型言語生成の代替として拡散を示している。
代わりに、既存の事前学習言語モデルの生成能力を増強できる相補的手法として拡散を考察する。
我々は,事前学習したエンコーダ-デコーダモデルの潜在空間において連続拡散モデルを学習できることを示し,事前学習したデコーダを用いて自然言語に復号可能な連続潜時表現をサンプル化できるようにする。
潜在拡散モデルは強力な自己回帰ベースラインよりもデータ分布から新しいテキストをサンプリングするのに効果的であり,制御可能な生成も可能であることを示す。
関連論文リスト
- Multimodal Latent Language Modeling with Next-Token Diffusion [111.93906046452125]
マルチモーダル生成モデルは、離散データ(テキストやコードなど)と連続データ(画像、オーディオ、ビデオなど)の両方を扱う統一的なアプローチを必要とする。
因果変換器を用いて連続データと離散データをシームレスに統合する潜在言語モデリング(LatentLM)を提案する。
論文 参考訳(メタデータ) (2024-12-11T18:57:32Z) - Simple and Effective Masked Diffusion Language Models [48.68198363304619]
単純なマスク付き離散拡散は以前考えられていたよりも性能が高いことを示す。
私たちの目標はシンプルなフォーム -- 古典的なマスキング言語モデリング損失の混合です。
言語モデリングベンチマークでは、現代のエンジニアリングプラクティスで訓練された様々なマスク付き拡散モデルが、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-06-11T17:51:40Z) - Diffusion Language Models Can Perform Many Tasks with Scaling and
Instruction-Finetuning [56.03057119008865]
拡散言語モデルを拡張することで、強力な言語学習者が効果的に学習できることが示される。
大規模データから知識を最初に取得することで,大規模に有能な拡散言語モデルを構築する。
実験により、拡散言語モデルのスケーリングは、下流言語タスクにおけるパフォーマンスを一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-08-23T16:01:12Z) - A Cheaper and Better Diffusion Language Model with Soft-Masked Noise [62.719656543880596]
Masked-Diffuse LMは言語モデリングのための新しい拡散モデルであり、言語の言語的特徴に触発されている。
具体的には,テキストデータのノイズを改善するために,戦略的ソフトマスキングによってテキストに劣化を加える言語情報処理を設計する。
我々は,我々のMasked-Diffuse LMが,高効率の最先端拡散モデルよりも優れた生成品質を達成できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:58:42Z) - DiffusionBERT: Improving Generative Masked Language Models with
Diffusion Models [81.84866217721361]
DiffusionBERTは離散拡散モデルに基づく新しい生成マスク付き言語モデルである。
本稿では,各ステップに付加される雑音の度合いを制御する前方拡散プロセスのための新しいノイズスケジュールを提案する。
非条件テキスト生成の実験では、DiffusionBERTは既存のテキスト拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-11-28T03:25:49Z) - Self-conditioned Embedding Diffusion for Text Generation [28.342735885752493]
自己条件埋め込み拡散(Self-conditioned Embedding Diffusion)は、トークンの埋め込みで動作する連続拡散機構である。
テキスト拡散モデルでは,標準自己回帰言語モデルに匹敵するサンプルを生成する。
論文 参考訳(メタデータ) (2022-11-08T13:30:27Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。