論文の概要: Authentic Discrete Diffusion Model
- arxiv url: http://arxiv.org/abs/2510.01047v1
- Date: Wed, 01 Oct 2025 15:51:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.654469
- Title: Authentic Discrete Diffusion Model
- Title(参考訳): 正当離散拡散モデル
- Authors: Xiao Li, Jiaqi Zhang, Shuxiang Zhang, Tianshui Chen, Liang Lin, Guangrun Wang,
- Abstract要約: 認証離散拡散(ADD)フレームワークは、従来の擬似離散的アプローチを再定義する。
ADDはフロートエンコードされたワンホットクラスデータを直接使用して拡散入力を再構成する。
実験により、ADDはベースラインと比較して分類タスクにおいて優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 72.31371542619121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an Authentic Discrete Diffusion (ADD) framework that fundamentally redefines prior pseudo-discrete approaches by preserving core diffusion characteristics directly in the one-hot space through a suite of coordinated mechanisms. Unlike conventional "pseudo" discrete diffusion (PDD) methods, ADD reformulates the diffusion input by directly using float-encoded one-hot class data, without relying on diffusing in the continuous latent spaces or masking policies. At its core, a timestep-conditioned cross-entropy loss is introduced between the diffusion model's outputs and the original one-hot labels. This synergistic design establishes a bridge between discriminative and generative learning. Our experiments demonstrate that ADD not only achieves superior performance on classification tasks compared to the baseline, but also exhibits excellent text generation capabilities on Image captioning. Extensive ablations validate the measurable gains of each component.
- Abstract(参考訳): 本稿では,従来の擬似離散的アプローチを基本的に再定義し,一点空間内でのコア拡散特性を協調的な機構によって保ち,その再定義を行うための Authentic Discrete Diffusion (ADD) フレームワークを提案する。
従来の「擬似離散拡散法」(PDD)とは異なり、ADDは連続的な潜伏空間やマスキングポリシーの拡散に頼ることなく、フロートエンコードされた1ホットクラスデータを直接使用することで拡散入力を再構成する。
コアでは、拡散モデルの出力と元の1ホットラベルの間に、時間条件のクロスエントロピー損失が導入された。
この相乗的デザインは、差別的学習と生成的学習の間の橋渡しを確立する。
実験の結果,ADDはベースラインよりも優れた分類性能を発揮するだけでなく,画像キャプションに優れたテキスト生成能力を示すことがわかった。
広範囲にわたる改善は、各コンポーネントの計測可能な利得を検証する。
関連論文リスト
- Continuously Augmented Discrete Diffusion model for Categorical Generative Modeling [87.34677262370924]
標準離散拡散モデルは、吸収[MASK]トークンにそれらをマッピングすることで、すべての観測されていない状態を同一に扱う。
これは'インフォメーション・ヴォイド'を生成します。そこでは、偽のトークンから推測できるセマンティック情報は、デノイングステップの間に失われます。
連続的拡張離散拡散(Continuously Augmented Discrete Diffusion)は、連続的な潜在空間における対拡散で離散状態空間を拡大するフレームワークである。
論文 参考訳(メタデータ) (2025-10-01T18:00:56Z) - Forward-only Diffusion Probabilistic Models [23.247850964456177]
この研究は、生成モデリングのためのフォワードオンリー拡散(FoD)アプローチを示す。
FoDは単一の前方拡散プロセスを通じてデータ生成を直接学習し、シンプルだが効率的な生成フレームワークを生成する。
私たちのコードはhttps://github.com/Algolzw/FoD.comで公開されています。
論文 参考訳(メタデータ) (2025-05-22T14:47:07Z) - DIVE: Inverting Conditional Diffusion Models for Discriminative Tasks [79.50756148780928]
本稿では,事前学習した拡散モデルを用いて識別課題を遂行する問題について検討する。
我々は、事前学習されたレイアウト・ツー・イメージ拡散モデルの「反転」により、事前学習した凍結生成拡散モデルの識別能力を分類タスクからより複雑なオブジェクト検出タスクに拡張する。
論文 参考訳(メタデータ) (2025-04-24T05:13:27Z) - Generalized Interpolating Discrete Diffusion [65.74168524007484]
仮面拡散はその単純さと有効性のために一般的な選択である。
ノイズ発生過程の設計において、より柔軟性の高い離散拡散(GIDD)を補間する新しいファミリを一般化する。
GIDDの柔軟性をエクスプロイトし、マスクと均一ノイズを組み合わせたハイブリッドアプローチを探索し、サンプル品質を向上する。
論文 参考訳(メタデータ) (2025-03-06T14:30:55Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Interpreting diffusion score matching using normalizing flow [22.667661526643265]
拡散スコアマッチング (DSM) は, 正規化フローで評価された元のスコアマッチング (Stein discrepancy) と等価であることを示す。
具体的には、DSM(またはDSD)が正規化フローによって定義される変換空間で評価された元のスコアマッチング(またはスタイン差分)と等価であることを示す。
論文 参考訳(メタデータ) (2021-07-21T13:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。