論文の概要: PixelRush: Ultra-Fast, Training-Free High-Resolution Image Generation via One-step Diffusion
- arxiv url: http://arxiv.org/abs/2602.12769v1
- Date: Fri, 13 Feb 2026 09:54:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.914821
- Title: PixelRush: Ultra-Fast, Training-Free High-Resolution Image Generation via One-step Diffusion
- Title(参考訳): PixelRush:1段階拡散による超高速・無訓練高解像度画像生成
- Authors: Hong-Phuc Lai, Phong Nguyen, Anh Tran,
- Abstract要約: 我々は,実用的な高解像度テキスト・画像生成のための最初のチューニング不要フレームワークであるPixelRushを紹介する。
提案手法は,確立されたパッチベースの推論パラダイムに基づいているが,複数の逆転・再生サイクルの必要性を排除している。
PixelRushは例外的な効率を提供し、最先端のメソッドよりも10$times$から35$times$のスピードアップを表す約20秒で4Kイメージを生成する。
- 参考スコア(独自算出の注目度): 8.226158351984184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-trained diffusion models excel at generating high-quality images but remain inherently limited by their native training resolution. Recent training-free approaches have attempted to overcome this constraint by introducing interventions during the denoising process; however, these methods incur substantial computational overhead, often requiring more than five minutes to produce a single 4K image. In this paper, we present PixelRush, the first tuning-free framework for practical high-resolution text-to-image generation. Our method builds upon the established patch-based inference paradigm but eliminates the need for multiple inversion and regeneration cycles. Instead, PixelRush enables efficient patch-based denoising within a low-step regime. To address artifacts introduced by patch blending in few-step generation, we propose a seamless blending strategy. Furthermore, we mitigate over-smoothing effects through a noise injection mechanism. PixelRush delivers exceptional efficiency, generating 4K images in approximately 20 seconds representing a 10$\times$ to 35$\times$ speedup over state-of-the-art methods while maintaining superior visual fidelity. Extensive experiments validate both the performance gains and the quality of outputs achieved by our approach.
- Abstract(参考訳): 事前トレーニングされた拡散モデルは高品質な画像を生成するのに優れるが、ネイティブトレーニングの解像度によって本質的に制限される。
近年のトレーニングフリーアプローチでは、ノイズ発生過程の介入によってこの制約を克服しようと試みているが、これらの手法は計算オーバーヘッドが大きくなり、単一の4K画像を生成するのに5分以上要することが多い。
本稿では,実用的な高解像度テキスト・画像生成のための最初のチューニング不要フレームワークであるPixelRushを提案する。
提案手法は,確立されたパッチベースの推論パラダイムに基づいているが,複数の逆転・再生サイクルの必要性を排除している。
代わりにPixelRushは、低ステップのレギュレーション内で、効率的なパッチベースのデノベーションを可能にする。
パッチブレンディングによって導入されたアーティファクトを数ステップで生成するために,シームレスなブレンディング戦略を提案する。
さらに,ノイズ注入機構による過平滑化効果を緩和する。
PixelRushは例外的な効率を提供し、約20秒で4K画像を生成し、10$\times$から35$\times$の最先端メソッドをスピードアップすると同時に、優れた視覚的忠実性を維持している。
大規模な実験は、我々のアプローチによって達成された性能向上とアウトプットの品質の両方を検証する。
関連論文リスト
- Quick Bypass Mechanism of Zero-Shot Diffusion-Based Image Restoration [0.8192907805418583]
そこで本研究では,中間近似から初期化することでデノナイジング過程を高速化し,早期デノナイジングステップを効果的に回避する戦略を提案する。
我々は,超高解像度,デブロアリング,圧縮センシングなど,複数の画像復元タスクにまたがるImageNet-1KとCelebAHQの手法を検証した。
論文 参考訳(メタデータ) (2025-07-06T01:36:27Z) - Training-free Diffusion Acceleration with Bottleneck Sampling [37.9135035506567]
Bottleneck Samplingは、低解像度の事前処理を活用して、出力の忠実さを維持しながら計算オーバーヘッドを低減する、トレーニング不要のフレームワークである。
画像生成に最大3$times$、ビデオ生成に2.5$times$、標準のフル解像度サンプリングプロセスに匹敵する出力品質を維持しながら、推論を加速する。
論文 参考訳(メタデータ) (2025-03-24T17:59:02Z) - Fast constrained sampling in pre-trained diffusion models [80.99262780028015]
任意の制約下で高速で高品質な生成を可能にするアルゴリズムを提案する。
我々の手法は、最先端のトレーニングフリー推論手法に匹敵するか、超越した結果をもたらす。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - SpotDiffusion: A Fast Approach For Seamless Panorama Generation Over Time [7.532695984765271]
生成モデルを用いて高解像度画像を生成する新しい手法を提案する。
提案手法は,時間とともに重なりのないデノベーションウィンドウをシフトさせ,一段階のシームが次回修正されるようにする。
提案手法は計算効率の向上や推論時間の高速化など,いくつかの重要な利点を提供する。
論文 参考訳(メタデータ) (2024-07-22T09:44:35Z) - Efficient Diffusion Model for Image Restoration by Residual Shifting [63.02725947015132]
本研究では,画像復元のための新しい,効率的な拡散モデルを提案する。
提案手法は,推論中の後処理の高速化を回避し,関連する性能劣化を回避する。
提案手法は,3つの古典的IRタスクにおける現在の最先端手法よりも優れた,あるいは同等の性能を実現する。
論文 参考訳(メタデータ) (2024-03-12T05:06:07Z) - AdaDiff: Adaptive Step Selection for Fast Diffusion Models [82.78899138400435]
我々は、インスタンス固有のステップ利用ポリシーを学ぶために設計された軽量フレームワークであるAdaDiffを紹介します。
AdaDiffはポリシーメソッドを使用して最適化され、慎重に設計された報酬関数を最大化する。
我々は3つの画像生成と2つのビデオ生成ベンチマークの実験を行い、本手法がベースラインと同じような視覚的品質を実現することを示す。
論文 参考訳(メタデータ) (2023-11-24T11:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。