論文の概要: Diffusion Models Without Attention
- arxiv url: http://arxiv.org/abs/2311.18257v1
- Date: Thu, 30 Nov 2023 05:15:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 17:52:23.032277
- Title: Diffusion Models Without Attention
- Title(参考訳): 注意のない拡散モデル
- Authors: Jing Nathan Yan, Jiatao Gu, Alexander M. Rush
- Abstract要約: Diffusion State Space Model (DiffuSSM) は、よりスケーラブルな状態空間モデルバックボーンで注目メカニズムを置き換えるアーキテクチャである。
拡散訓練におけるFLOP効率の高いアーキテクチャへの注力は、大きな前進となる。
- 参考スコア(独自算出の注目度): 110.5623058129782
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent advancements in high-fidelity image generation, Denoising Diffusion
Probabilistic Models (DDPMs) have emerged as a key player. However, their
application at high resolutions presents significant computational challenges.
Current methods, such as patchifying, expedite processes in UNet and
Transformer architectures but at the expense of representational capacity.
Addressing this, we introduce the Diffusion State Space Model (DiffuSSM), an
architecture that supplants attention mechanisms with a more scalable state
space model backbone. This approach effectively handles higher resolutions
without resorting to global compression, thus preserving detailed image
representation throughout the diffusion process. Our focus on FLOP-efficient
architectures in diffusion training marks a significant step forward.
Comprehensive evaluations on both ImageNet and LSUN datasets at two resolutions
demonstrate that DiffuSSMs are on par or even outperform existing diffusion
models with attention modules in FID and Inception Score metrics while
significantly reducing total FLOP usage.
- Abstract(参考訳): 近年,高忠実度画像生成の進歩に伴い,Deffusion Probabilistic Models (DDPM) がキープレーヤーとして登場している。
しかし、高分解能での応用は、重要な計算上の課題を示す。
現在の方法では、UNetやTransformerアーキテクチャのプロセスは高速だが、表現能力は犠牲になっている。
そこで我々は,よりスケーラブルな状態空間モデルバックボーンを用いた注意機構を代替するアーキテクチャである拡散状態空間モデル(diffussm)を提案する。
このアプローチは,グローバル圧縮に頼らずに高分解能を効果的に処理し,拡散過程全体にわたって詳細な画像表現を保持する。
拡散トレーニングにおけるフロップ効率の高いアーキテクチャにフォーカスすることは、大きな前進である。
ImageNetとLSUNのデータセットを2つの解像度で総合的に評価すると、DiffuSSMはFIDとInception Scoreメトリクスの注意モジュールを持つ既存の拡散モデルと同等の、あるいは超越している。
関連論文リスト
- Enhancing Hyperspectral Images via Diffusion Model and Group-Autoencoder
Super-resolution Network [29.6360974619655]
Group-Autoencoder (GAE)フレームワークは、高次元ハイパースペクトルデータを低次元潜在空間に符号化する。
DMGASRの高効率HSI SRモデル(DMGASR)
自然と遠隔の両方のハイパースペクトルデータセットに対する実験結果から,提案手法は視覚的・計量的にも他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-27T07:57:28Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - DiffSCI: Zero-Shot Snapshot Compressive Imaging via Iterative Spectral
Diffusion Model [18.25548360119976]
マルチスペクトル画像(MSI)におけるスナップショット圧縮画像(SCI)再構成の精度向上を目指した。
DiffSCIと呼ばれる新しいゼロショット拡散モデルを提案する。
我々は,DiffSCIが自己監督的,ゼロショット的アプローチよりも顕著な性能向上を示すことを示すため,広範囲な試験を行った。
論文 参考訳(メタデータ) (2023-11-19T20:27:14Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Implicit Diffusion Models for Continuous Super-Resolution [65.45848137914592]
本稿では,高忠実度連続画像超解像のためのインプリシティ拡散モデル(IDM)を提案する。
IDMは暗黙のニューラル表現とデノナイジング拡散モデルを統合されたエンドツーエンドフレームワークに統合する。
スケーリング係数は分解能を調節し、最終出力におけるLR情報と生成された特徴の比率を変調する。
論文 参考訳(メタデータ) (2023-03-29T07:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。