論文の概要: Diffusion Glancing Transformer for Parallel Sequence to Sequence
Learning
- arxiv url: http://arxiv.org/abs/2212.10240v2
- Date: Wed, 29 Nov 2023 08:30:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 04:13:11.492469
- Title: Diffusion Glancing Transformer for Parallel Sequence to Sequence
Learning
- Title(参考訳): 並列シーケンス学習のための拡散グランシング変換器
- Authors: Lihua Qian, Mingxuan Wang, Yang Liu, Hao Zhou
- Abstract要約: モーダリティ拡散プロセスと残差グランシングサンプリングを併用した拡散グランシング変換器を提案する。
DIFFGLATは、自己回帰モデルと非自己回帰モデルの両方と比較して、高速な復号速度を維持しながら、より優れた生成精度を実現する。
- 参考スコア(独自算出の注目度): 52.72369034247396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previously, non-autoregressive models were widely perceived as being superior
in generation efficiency but inferior in generation quality due to the
difficulties of modeling multiple target modalities. To enhance the
multi-modality modeling ability, we propose the diffusion glancing transformer,
which employs a modality diffusion process and residual glancing sampling. The
modality diffusion process is a discrete process that interpolates the
multi-modal distribution along the decoding steps, and the residual glancing
sampling approach guides the model to continuously learn the remaining
modalities across the layers. Experimental results on various machine
translation and text generation benchmarks demonstrate that DIFFGLAT achieves
better generation accuracy while maintaining fast decoding speed compared with
both autoregressive and non-autoregressive models.
- Abstract(参考訳): 従来、非自己回帰モデルは、複数の目標モダリティのモデリングが困難であるため、生成効率は優れているが、生成品質は劣っていると広く認識されていた。
マルチモダリティモデリング能力を向上させるために,モダリティ拡散過程と残留グライシングサンプリングを用いた拡散グライシングトランスを提案する。
モダリティ拡散過程は、復号過程に沿って多重モーダル分布を補間する離散過程であり、残留グラランシングサンプリングアプローチはモデルを誘導し、残りのモダリティを層全体で連続的に学習する。
各種機械翻訳およびテキスト生成ベンチマークの実験結果から、DIFFGLATは自己回帰モデルと非自己回帰モデルの両方と比較して高速な復号速度を維持しつつ、より優れた生成精度を実現することが示された。
関連論文リスト
- Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Effective Diffusion Transformer Architecture for Image Super-Resolution [63.254644431016345]
画像超解像のための効果的な拡散変換器(DiT-SR)を設計する。
実際には、DiT-SRは全体のU字型アーキテクチャを活用し、すべての変圧器ブロックに対して均一な等方性設計を採用する。
我々は、広く使われているAdaLNの制限を分析し、周波数適応型時間-ステップ条件付けモジュールを提案する。
論文 参考訳(メタデータ) (2024-09-29T07:14:16Z) - Sequential Posterior Sampling with Diffusion Models [15.028061496012924]
条件付き画像合成における逐次拡散後サンプリングの効率を向上させるため,遷移力学をモデル化する新しい手法を提案する。
本研究では,高フレームレート心エコー画像の現実的データセットに対するアプローチの有効性を実証する。
提案手法は,画像の拡散モデルとリアルタイム推論を必要とする他の領域における拡散モデルのリアルタイム適用の可能性を開く。
論文 参考訳(メタデータ) (2024-09-09T07:55:59Z) - ReNoise: Real Image Inversion Through Iterative Noising [62.96073631599749]
本研究では,操作数を増やすことなく,高い品質と操作率の逆転法を導入し,再現精度を向上する。
我々は,近年の高速化拡散モデルを含む様々なサンプリングアルゴリズムとモデルを用いて,Renoise手法の性能を評価する。
論文 参考訳(メタデータ) (2024-03-21T17:52:08Z) - Fast Sampling via Discrete Non-Markov Diffusion Models [49.598085130313514]
離散データ生成のための高速化された逆サンプリングを許容する離散非マルコフ拡散モデルを提案する。
提案手法は, ニューラルネットワークに対する関数評価の回数を大幅に削減し, サンプリング処理を高速化する。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - Neural Diffusion Models [2.1779479916071067]
本稿では,データの時間依存非線形変換の定義と学習を可能にする,従来の拡散モデルの一般化について述べる。
NDMは、可能性の観点から従来の拡散モデルより優れ、高品質なサンプルを生成する。
論文 参考訳(メタデータ) (2023-10-12T13:54:55Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - Symbolic Music Generation with Diffusion Models [4.817429789586127]
本論文では,前訓練された可変オートエンコーダの連続潜空間における離散領域をパラメータ化することにより,連続データに対する拡散モデルを訓練する手法を提案する。
同じ連続埋め込み上で動作する自己回帰型言語モデルと比較して,強い無条件生成とポストホック条件付インフィル結果を示す。
論文 参考訳(メタデータ) (2021-03-30T05:48:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。