論文の概要: DiffusionX: Efficient Edge-Cloud Collaborative Image Generation with Multi-Round Prompt Evolution
- arxiv url: http://arxiv.org/abs/2510.16326v1
- Date: Sat, 18 Oct 2025 03:20:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.948141
- Title: DiffusionX: Efficient Edge-Cloud Collaborative Image Generation with Multi-Round Prompt Evolution
- Title(参考訳): DiffusionX: マルチラウンドプロンプト進化を用いた効率的なエッジクラウド協調画像生成
- Authors: Yi Wei, Shunpu Tang, Liang Zhao, Qiangian Yang,
- Abstract要約: DiffusionXは、効率的なマルチラウンド、プロンプトベースの生成のためのクラウド・エッジ・コラボレーティブ・フレームワークである。
軽量オンデバイス拡散モデルではプレビュー画像を高速に生成し,高容量のクラウドモデルでは最終改良を行う。
実験の結果、DiffusionXは画像の品質を維持しながら、Stable Diffusion v1.5と比較して平均生成時間を15.8%削減した。
- 参考スコア(独自算出の注目度): 10.001414172068623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in diffusion models have driven remarkable progress in image generation. However, the generation process remains computationally intensive, and users often need to iteratively refine prompts to achieve the desired results, further increasing latency and placing a heavy burden on cloud resources. To address this challenge, we propose DiffusionX, a cloud-edge collaborative framework for efficient multi-round, prompt-based generation. In this system, a lightweight on-device diffusion model interacts with users by rapidly producing preview images, while a high-capacity cloud model performs final refinements after the prompt is finalized. We further introduce a noise level predictor that dynamically balances the computation load, optimizing the trade-off between latency and cloud workload. Experiments show that DiffusionX reduces average generation time by 15.8% compared with Stable Diffusion v1.5, while maintaining comparable image quality. Moreover, it is only 0.9% slower than Tiny-SD with significantly improved image quality, thereby demonstrating efficiency and scalability with minimal overhead.
- Abstract(参考訳): 拡散モデルの最近の進歩は、画像生成の著しい進歩をもたらした。
しかし、生成プロセスは計算集約的なままであり、ユーザは望まれる結果を達成するために、反復的にプロンプトを洗練し、さらにレイテンシを増し、クラウドリソースに重きを置く必要があることが多い。
この課題に対処するために,効率的なマルチラウンド・プロンプトベース生成のためのクラウドエッジ協調フレームワークであるDiffusionXを提案する。
本システムでは、高容量のクラウドモデルがプロンプトの完了後に最終的な改善を行うのに対し、軽量なオンデバイス拡散モデルがプレビュー画像を高速に生成することでユーザと対話する。
さらに、計算負荷を動的にバランスさせるノイズレベル予測器を導入し、レイテンシとクラウドワークロード間のトレードオフを最適化する。
実験の結果、DiffusionXは画像の品質を維持しながら、Stable Diffusion v1.5と比較して平均生成時間を15.8%削減した。
さらに、Tiny-SDよりわずか0.9%遅く、画像品質が大幅に向上し、最小オーバーヘッドで効率とスケーラビリティが向上した。
関連論文リスト
- InfGen: A Resolution-Agnostic Paradigm for Scalable Image Synthesis [51.81849724354083]
現在の拡散モデルでは、解像度で計算要求が2倍に増加し、4K画像生成が100秒以上遅れる。
本稿では, 任意の解像度画像を1ステップ生成器を用いて, コンパクトなラテントで復号する手法を提案する。
InfGenは、4K画像生成時間を10秒未満にカットしながら、任意の高解像度の時代に多くのモデルを改善することができる。
論文 参考訳(メタデータ) (2025-09-12T17:48:57Z) - EC-Diff: Fast and High-Quality Edge-Cloud Collaborative Inference for Diffusion Models [57.059991285047296]
高速な推論と高品質な生成を実現するために,ハイブリッドエッジクラウドコラボレーションフレームワークが最近提案されている。
過度の雲が推論時間を延ばす一方、不十分なステップは意味的な曖昧さを引き起こし、エッジモデルの出力の不整合を引き起こす。
勾配に基づく雑音推定により雲の推測を高速化するEC-Diffを提案する。
提案手法は, エッジ推定に比べて生成品質を著しく向上する一方で, クラウド推定に比べて平均2倍の速度アップを達成できる。
論文 参考訳(メタデータ) (2025-07-16T07:23:14Z) - Fast constrained sampling in pre-trained diffusion models [80.99262780028015]
任意の制約下で高速で高品質な生成を可能にするアルゴリズムを提案する。
我々の手法は、最先端のトレーニングフリー推論手法に匹敵するか、超越した結果をもたらす。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - SpotDiffusion: A Fast Approach For Seamless Panorama Generation Over Time [7.532695984765271]
生成モデルを用いて高解像度画像を生成する新しい手法を提案する。
提案手法は,時間とともに重なりのないデノベーションウィンドウをシフトさせ,一段階のシームが次回修正されるようにする。
提案手法は計算効率の向上や推論時間の高速化など,いくつかの重要な利点を提供する。
論文 参考訳(メタデータ) (2024-07-22T09:44:35Z) - StreamDiffusion: A Pipeline-level Solution for Real-time Interactive Generation [52.56469577812338]
本稿では,インタラクティブな画像生成のためのリアルタイム拡散パイプラインStreamDiffusionを紹介する。
既存の拡散モデルは、テキストや画像プロンプトから画像を作成するのに適しているが、リアルタイムのインタラクションでは不足することが多い。
本稿では,従来のシーケンシャル・デノナイジングをデノナイジング・プロセスに変換する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-19T18:18:33Z) - Wavelet Diffusion Models are fast and scalable Image Generators [3.222802562733787]
拡散モデルは高忠実度画像生成のための強力な解であり、多くの状況においてGANを超える。
最近のDiffusionGAN法は、サンプリングステップの数を数千から数に減らして、モデルの実行時間を著しく短縮するが、その速度はGANよりもかなり遅れている。
本稿では,新しいウェーブレット拡散方式を提案することにより,速度ギャップを低減することを目的とする。
我々は、ウェーブレット分解により、画像と特徴レベルの両方から低周波数成分を抽出し、これらの成分を適応的に処理し、良好な生成品質を維持しながら高速に処理する。
論文 参考訳(メタデータ) (2022-11-29T12:25:25Z) - Dynamic Dual-Output Diffusion Models [100.32273175423146]
反復分解に基づく生成は、他の生成モデルのクラスに匹敵する品質を示すことが示されている。
この方法の大きな欠点は、競合する結果を生み出すために数百のイテレーションが必要であることである。
近年の研究では、より少ないイテレーションでより高速に生成できるソリューションが提案されているが、画像の品質は徐々に低下している。
論文 参考訳(メタデータ) (2022-03-08T11:20:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。