論文の概要: DiffuSeq: Sequence to Sequence Text Generation with Diffusion Models
- arxiv url: http://arxiv.org/abs/2210.08933v1
- Date: Mon, 17 Oct 2022 10:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 16:30:50.423483
- Title: DiffuSeq: Sequence to Sequence Text Generation with Diffusion Models
- Title(参考訳): diffusionq: 拡散モデルを用いたシーケンスからシーケンスへのテキスト生成
- Authors: Shansan Gong and Mukai Li and Jiangtao Feng and Zhiyong Wu and
LingPeng Kong
- Abstract要約: DiffuSeqは、Seq2Seq(Seq2Seq)テキスト生成タスク用に設計された拡散モデルである。
DiffuSeqは6つの確立されたベースラインよりも同等あるいはそれ以上のパフォーマンスを実現していることを示す。
理論解析により、DiffuSeqと自己回帰/非自己回帰モデルとの関係が明らかになる。
- 参考スコア(独自算出の注目度): 15.913828295673705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, diffusion models have emerged as a new paradigm for generative
models. Despite the success in domains using continuous signals such as vision
and audio, adapting diffusion models to natural language is difficult due to
the discrete nature of text. We tackle this challenge by proposing DiffuSeq: a
diffusion model designed for sequence-to-sequence (Seq2Seq) text generation
tasks. Upon extensive evaluation over a wide range of Seq2Seq tasks, we find
DiffuSeq achieving comparable or even better performance than six established
baselines, including a state-of-the-art model that is based on pre-trained
language models. Apart from quality, an intriguing property of DiffuSeq is its
high diversity during generation, which is desired in many Seq2Seq tasks. We
further include a theoretical analysis revealing the connection between
DiffuSeq and autoregressive/non-autoregressive models. Bringing together
theoretical analysis and empirical evidence, we demonstrate the great potential
of diffusion models in complex conditional language generation tasks.
- Abstract(参考訳): 近年,拡散モデルが生成モデルの新しいパラダイムとして出現している。
視覚や音声などの連続的な信号を用いたドメインの成功にもかかわらず、テキストの離散的な性質のため、自然言語への拡散モデルの適用は困難である。
DiffuSeqはSeq2Seq(Seq2Seq)テキスト生成タスク用に設計された拡散モデルである。
幅広いseq2seqタスクに対する広範囲な評価を行った結果,dvidenceqは,事前学習された言語モデルに基づいた最先端モデルを含む,確立された6つのベースラインと同等あるいはそれ以上のパフォーマンスを達成していることがわかった。
品質以外にも、DiffuSeqの興味深い性質は、多くのSeq2Seqタスクで望まれる世代間の多様性が高いことである。
さらに、DiffuSeqと自己回帰/非自己回帰モデルとの関係を明らかにする理論的解析を含む。
理論解析と経験的証拠を組み合わせることで,複雑な条件付き言語生成タスクにおける拡散モデルの可能性を示す。
関連論文リスト
- Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Meta-DiffuB: A Contextualized Sequence-to-Sequence Text Diffusion Model with Meta-Exploration [53.63593099509471]
本稿では,既存のS2S-拡散モデルの限界を克服するために,スケジューラ・エクスロイタS2S-拡散パラダイムを提案する。
我々はメタ探索を用いて、各文の文脈化ノイズをスケジューリングするための追加スケジューラモデルを訓練する。
我々のエクスプローラーモデルであるS2S-拡散モデルでは、スケジューラモデルによってスケジュールされたノイズを利用して更新と生成を行う。
論文 参考訳(メタデータ) (2024-10-17T04:06:02Z) - Discrete Diffusion Language Model for Long Text Summarization [19.267738861590487]
本稿では,トランスフォーマーのバックボーンが長いシーケンスを効果的に扱えるような,セマンティック・アウェア・ノーミング・プロセスを提案する。
提案手法は,Gigaword,CNN/DailyMail,Arxivの3つのベンチマーク要約データセットに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-06-25T09:55:22Z) - Generative Pre-training for Speech with Flow Matching [81.59952572752248]
我々は,フローマッチングとマスク条件を併用した60k時間の無転写音声に対して,SpeechFlowという生成モデルを事前学習した。
実験結果から,事前学習した生成モデルをタスク固有のデータで微調整し,音声強調,分離,合成に関する既存の専門家モデルに適合または超えることを示す。
論文 参考訳(メタデータ) (2023-10-25T03:40:50Z) - Minimally-Supervised Speech Synthesis with Conditional Diffusion Model
and Language Model: A Comparative Study of Semantic Coding [57.42429912884543]
Diff-LM-Speech, Tetra-Diff-Speech, Tri-Diff-Speechを提案する。
また,変分オートエンコーダと韻律ボトルネックに基づくプロンプトエンコーダ構造を導入し,プロンプト表現能力の向上を図る。
実験の結果,提案手法はベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-28T11:20:23Z) - TESS: Text-to-Text Self-Conditioned Simplex Diffusion [56.881170312435444]
テキストからテキストへの自己条件付きSimplex Diffusionは、新しい形式のセルフコンディショニングを採用し、学習された埋め込み空間ではなく、ロジット単純空間に拡散プロセスを適用する。
我々は、TESSが最先端の非自己回帰モデルより優れており、性能の低下を最小限に抑えた拡散ステップを少なくし、事前訓練された自己回帰列列列列モデルと競合することを示した。
論文 参考訳(メタデータ) (2023-05-15T06:33:45Z) - SeqDiffuSeq: Text Diffusion with Encoder-Decoder Transformers [50.90457644954857]
本研究では,拡散モデルを用いてシーケンス・ツー・シーケンスのテキスト生成を行う。
シーケンス・ツー・シーケンス生成のためのテキスト拡散モデルであるSeqDiffuSeqを提案する。
実験結果は、テキストの品質と推論時間の観点から、シーケンス・ツー・シーケンス生成の優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-20T15:16:24Z) - Symbolic Music Generation with Diffusion Models [4.817429789586127]
本論文では,前訓練された可変オートエンコーダの連続潜空間における離散領域をパラメータ化することにより,連続データに対する拡散モデルを訓練する手法を提案する。
同じ連続埋め込み上で動作する自己回帰型言語モデルと比較して,強い無条件生成とポストホック条件付インフィル結果を示す。
論文 参考訳(メタデータ) (2021-03-30T05:48:05Z) - Abstractive Summarization with Combination of Pre-trained
Sequence-to-Sequence and Saliency Models [11.420640383826656]
本稿では,テキストの重要部分と事前学習したSeq-to-seqモデルとの相性モデルの有効性について検討する。
組み合わせモデルは、CNN/DMとXSumの両方のデータセット上で、単純な微調整のSeq-to-seqモデルよりも優れていた。
論文 参考訳(メタデータ) (2020-03-29T14:00:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。