論文の概要: Accelerated Sampling from Masked Diffusion Models via Entropy Bounded Unmasking
- arxiv url: http://arxiv.org/abs/2505.24857v1
- Date: Fri, 30 May 2025 17:52:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.117801
- Title: Accelerated Sampling from Masked Diffusion Models via Entropy Bounded Unmasking
- Title(参考訳): エントロピー境界Unmaskingによるマスク付き拡散モデルからの高速化サンプリング
- Authors: Heli Ben-Hamu, Itai Gat, Daniel Severo, Niklas Nolte, Brian Karrer,
- Abstract要約: 仮面拡散モデル (MDM) は, 言語モデリングにおける自己回帰モデル (ARM) と比較して, 競合性能を示した。
本稿では,Entropy bounded unmasking 手法を用いて,既存のサンプルのドロップイン置換であるEB-Samplerを紹介する。
EB-Samplerは、パフォーマンスを損なうことなく、標準的なコーディングと数学推論ベンチマークで、最先端のMDMのサンプリングを約2~3倍高速化する。
- 参考スコア(独自算出の注目度): 17.511240770486452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent masked diffusion models (MDMs) have shown competitive performance compared to autoregressive models (ARMs) for language modeling. While most literature has focused on performance enhancing sampling procedures, efficient sampling from MDMs has been scarcely explored. We make the observation that often a given sequence of partially masked tokens determines the values of multiple unknown tokens deterministically, meaning that a single prediction of a masked model holds additional information unused by standard sampling procedures. Based on this observation, we introduce EB-Sampler, a simple drop-in replacement for existing samplers, utilizing an Entropy Bounded unmasking procedure that dynamically unmasks multiple tokens in one function evaluation with predefined approximate error tolerance. We formulate the EB-Sampler as part of a broad family of adaptive samplers for which we provide an error analysis that motivates our algorithmic choices. EB-Sampler accelerates sampling from current state of the art MDMs by roughly 2-3x on standard coding and math reasoning benchmarks without loss in performance. We also validate the same procedure works well on smaller reasoning tasks including maze navigation and Sudoku, tasks ARMs often struggle with.
- Abstract(参考訳): 最近のマスク拡散モデル (MDM) は, 言語モデリングにおける自己回帰モデル (ARM) と比較して, 競争力のある性能を示している。
ほとんどの文献はサンプリング手順の性能向上に重点を置いているが、MDMからの効率的なサンプリングは少ない。
マスク付きモデルの1つの予測は、標準的なサンプリング手順で使用されていない追加情報を保持することを意味する。
本研究では,既存のサンプルの簡易なドロップイン置換であるEB-Samplerを導入し,複数のトークンを動的に解凍するエントロピー境界アンマスキング手法を提案する。
我々は、EB-Samplerを適応型サンプルの幅広いファミリーの一部として定式化し、アルゴリズムの選択を動機付ける誤り解析を提供する。
EB-Samplerは、パフォーマンスを損なうことなく、標準的なコーディングと数学推論ベンチマークで、現在の最先端のMDMからのサンプリングを約2~3倍高速化する。
また、mazeナビゲーションやSudokuなどの小さな推論タスクでは、ARMがよく苦労するタスクでも、同じ手順が有効であることを示す。
関連論文リスト
- Masked Diffusion Models are Secretly Time-Agnostic Masked Models and Exploit Inaccurate Categorical Sampling [47.82616476928464]
仮面拡散モデル (MDM) は離散データの生成モデルとして人気がある。
我々はMDMのトレーニングとサンプリングの両方が理論的に時間変数から解放されていることを示す。
一般に使用されている32ビット浮動小数点精度においても,まず基礎となる数値問題を同定した。
論文 参考訳(メタデータ) (2024-09-04T17:48:19Z) - AdjointDPM: Adjoint Sensitivity Method for Gradient Backpropagation of Diffusion Probabilistic Models [103.41269503488546]
既存のカスタマイズ方法は、事前訓練された拡散確率モデルをユーザが提供する概念に合わせるために、複数の参照例にアクセスする必要がある。
本論文は、DPMカスタマイズの課題として、生成コンテンツ上で定義された差別化可能な指標が唯一利用可能な監督基準である場合に解決することを目的とする。
本稿では,拡散モデルから新しいサンプルを初めて生成するAdjointDPMを提案する。
次に、随伴感度法を用いて、損失の勾配をモデルのパラメータにバックプロパゲートする。
論文 参考訳(メタデータ) (2023-07-20T09:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。