論文の概要: MADFormer: Mixed Autoregressive and Diffusion Transformers for Continuous Image Generation
- arxiv url: http://arxiv.org/abs/2506.07999v1
- Date: Mon, 09 Jun 2025 17:59:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:11.104213
- Title: MADFormer: Mixed Autoregressive and Diffusion Transformers for Continuous Image Generation
- Title(参考訳): MADFormer:連続画像生成のための自己回帰・拡散変換器
- Authors: Junhao Chen, Yulia Tsvetkov, Xiaochuang Han,
- Abstract要約: 我々は,AR拡散トレードオフを解析するためのテストベッドとして機能するMixed Autoregressive Diffusion and Transformerを紹介する。
1)高分解能画像の性能はブロック分割により著しく向上し,(2)ARと拡散層を垂直に混合すると,FIDが最大75%向上する。
- 参考スコア(独自算出の注目度): 32.945437908689286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent progress in multimodal generation has increasingly combined autoregressive (AR) and diffusion-based approaches, leveraging their complementary strengths: AR models capture long-range dependencies and produce fluent, context-aware outputs, while diffusion models operate in continuous latent spaces to refine high-fidelity visual details. However, existing hybrids often lack systematic guidance on how and why to allocate model capacity between these paradigms. In this work, we introduce MADFormer, a Mixed Autoregressive and Diffusion Transformer that serves as a testbed for analyzing AR-diffusion trade-offs. MADFormer partitions image generation into spatial blocks, using AR layers for one-pass global conditioning across blocks and diffusion layers for iterative local refinement within each block. Through controlled experiments on FFHQ-1024 and ImageNet, we identify two key insights: (1) block-wise partitioning significantly improves performance on high-resolution images, and (2) vertically mixing AR and diffusion layers yields better quality-efficiency balances--improving FID by up to 75% under constrained inference compute. Our findings offer practical design principles for future hybrid generative models.
- Abstract(参考訳): マルチモーダル生成の最近の進歩は、自己回帰(AR)と拡散に基づくアプローチを組み合わせて、それらの相補的な強みを活用している。
しかしながら、既存のハイブリッドは、これらのパラダイム間でモデルキャパシティを割り当てる方法と理由に関する体系的なガイダンスを欠いていることが多い。
本研究では,AR拡散トレードオフを解析するためのテストベッドとして機能するMADFormerを紹介する。
MADFormerは、画像生成を空間ブロックに分割し、ブロックをまたいだ1パスのグローバルコンディショニングにARレイヤ、各ブロック内で反復的な局所的な洗練のために拡散レイヤを使用する。
FFHQ-1024 と ImageNet の制御実験により,(1) ブロック分割による高解像度画像の性能向上,(2) AR と拡散層を垂直に混合することにより,FID を最大75% 改善する,という2つの重要な知見が得られた。
本研究は,次世代ハイブリッド生産モデルにおける実用設計の原則を提示する。
関連論文リスト
- A Hybrid Wavelet-Fourier Method for Next-Generation Conditional Diffusion Models [0.0]
本稿では、拡散パラダイムをハイブリッド周波数表現に適応させる新しい生成モデリングフレームワーク、Wavelet-Fourier-Diffusionを提案する。
ハイブリッド周波数に基づく表現は,大域的コヒーレンスと微妙なテクスチャ合成の制御をいかに改善するかを示す。
論文 参考訳(メタデータ) (2025-04-04T17:11:04Z) - Effective Diffusion Transformer Architecture for Image Super-Resolution [63.254644431016345]
画像超解像のための効果的な拡散変換器(DiT-SR)を設計する。
実際には、DiT-SRは全体のU字型アーキテクチャを活用し、すべての変圧器ブロックに対して均一な等方性設計を採用する。
我々は、広く使われているAdaLNの制限を分析し、周波数適応型時間-ステップ条件付けモジュールを提案する。
論文 参考訳(メタデータ) (2024-09-29T07:14:16Z) - Merging and Splitting Diffusion Paths for Semantically Coherent Panoramas [33.334956022229846]
本稿では,Merge-Attend-Diffuse演算子を提案する。
具体的には、拡散経路をマージし、自己および横断的意図をプログラムし、集約された潜在空間で操作する。
提案手法は,生成した画像の入力プロンプトと視覚的品質との整合性を維持しつつ,セマンティック・コヒーレンスを増大させる。
論文 参考訳(メタデータ) (2024-08-28T09:22:32Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Normalizing Flows with Multi-Scale Autoregressive Priors [131.895570212956]
マルチスケール自己回帰前処理(mAR)を通した遅延空間におけるチャネルワイド依存性を導入する。
我々のmARは、分割結合フロー層(mAR-SCF)を持つモデルに先立って、複雑なマルチモーダルデータの依存関係をよりよく捉えます。
我々は,mAR-SCFにより画像生成品質が向上し,FIDとインセプションのスコアは最先端のフローベースモデルと比較して向上したことを示す。
論文 参考訳(メタデータ) (2020-04-08T09:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。