論文の概要: EC-Diff: Fast and High-Quality Edge-Cloud Collaborative Inference for Diffusion Models
- arxiv url: http://arxiv.org/abs/2507.11980v1
- Date: Wed, 16 Jul 2025 07:23:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.274982
- Title: EC-Diff: Fast and High-Quality Edge-Cloud Collaborative Inference for Diffusion Models
- Title(参考訳): EC-Diff:拡散モデルのための高速かつ高品質なエッジクラウド協調推論
- Authors: Jiajian Xie, Shengyu Zhang, Zhou Zhao, Fan Wu, Fei Wu,
- Abstract要約: 高速な推論と高品質な生成を実現するために,ハイブリッドエッジクラウドコラボレーションフレームワークが最近提案されている。
過度の雲が推論時間を延ばす一方、不十分なステップは意味的な曖昧さを引き起こし、エッジモデルの出力の不整合を引き起こす。
勾配に基づく雑音推定により雲の推測を高速化するEC-Diffを提案する。
提案手法は, エッジ推定に比べて生成品質を著しく向上する一方で, クラウド推定に比べて平均2倍の速度アップを達成できる。
- 参考スコア(独自算出の注目度): 57.059991285047296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion Models have shown remarkable proficiency in image and video synthesis. As model size and latency increase limit user experience, hybrid edge-cloud collaborative framework was recently proposed to realize fast inference and high-quality generation, where the cloud model initiates high-quality semantic planning and the edge model expedites later-stage refinement. However, excessive cloud denoising prolongs inference time, while insufficient steps cause semantic ambiguity, leading to inconsistency in edge model output. To address these challenges, we propose EC-Diff that accelerates cloud inference through gradient-based noise estimation while identifying the optimal point for cloud-edge handoff to maintain generation quality. Specifically, we design a K-step noise approximation strategy to reduce cloud inference frequency by using noise gradients between steps and applying cloud inference periodically to adjust errors. Then we design a two-stage greedy search algorithm to efficiently find the optimal parameters for noise approximation and edge model switching. Extensive experiments demonstrate that our method significantly enhances generation quality compared to edge inference, while achieving up to an average $2\times$ speedup in inference compared to cloud inference. Video samples and source code are available at https://ec-diff.github.io/.
- Abstract(参考訳): 拡散モデルは、画像合成とビデオ合成において顕著な熟練を示した。
モデルのサイズとレイテンシがユーザエクスペリエンスを制限しているため、ハイブリッドエッジクラウドコラボレーションフレームワークが最近提案され、高速な推論と高品質な生成を実現している。
しかし、過度の雲が推論時間を延ばす一方で、十分なステップが意味的な曖昧さを引き起こし、エッジモデルの出力が矛盾する。
これらの課題に対処するために,クラウドエッジハンドオフが生成品質を維持する最適点を特定しつつ,勾配に基づくノイズ推定によってクラウド推論を高速化するEC-Diffを提案する。
具体的には、ステップ間のノイズ勾配を用いて、周期的に雲の推測を適用して誤差を調整することで、雲の推測頻度を低減するためのKステップノイズ近似法を設計する。
そして、2段階の欲求探索アルゴリズムを設計し、雑音近似とエッジモデル切替の最適パラメータを効率的に求める。
大規模な実験により,提案手法はエッジ推定に比べて生成品質を著しく向上する一方で,クラウド推定に比べて平均2ドル以上の速度アップを実現していることが示された。
ビデオサンプルとソースコードはhttps://ec-diff.github.io/.com/で公開されている。
関連論文リスト
- PUFM++: Point Cloud Upsampling via Enhanced Flow Matching [15.738247394527024]
PUFM++は、スパース、ノイズ、部分的な観測から点雲を再構築するための拡張されたフローマッチングフレームワークである。
本稿では,まず,スパース入力から高密度ターゲットへ直進する直進経路の流れを学習し,次にノイズ摂動サンプルを用いて改良し,終端境界分布をよりよく近似する2段階フローマッチング手法を提案する。
合成ベンチマークと実世界のスキャンの実験は、PUFM++がポイントクラウドのアップサンプリングにおいて、新しい最先端の技術を設定していることを示している。
論文 参考訳(メタデータ) (2025-12-24T06:30:42Z) - U-CAN: Unsupervised Point Cloud Denoising with Consistency-Aware Noise2Noise Matching [87.76453413654922]
我々は、一貫性を意識したノイズ2ノイズマッチングを用いて、ポイントクラウドをデノナイズするための教師なしフレームワークであるU-CANを紹介する。
具体的には、ニューラルネットワークを利用して、ノイズとノイズのマッチング方式で、形状やシーンの各点について、多段階のノイズ伝達経路を推測する。
整合性を考慮したデノナイズパターンの学習のための,デノナイズド幾何整合性に関する新しい制約を導入する。
論文 参考訳(メタデータ) (2025-10-29T06:20:21Z) - BADiff: Bandwidth Adaptive Diffusion Model [55.10134744772338]
従来の拡散モデルは、下流の伝送制限によらず、一定数のデノナイジングステップを実行することで、高忠実度画像を生成する。
実際のクラウド・ツー・デバイス・シナリオでは、帯域幅の制限はしばしば重い圧縮を必要とし、微妙なテクスチャや無駄な計算が失われる。
使用可能な帯域幅から導かれる目標品質レベルに拡散モデルを条件付けする,共同エンドツーエンドのトレーニング戦略を導入する。
論文 参考訳(メタデータ) (2025-10-24T11:50:03Z) - Adaptive and Iterative Point Cloud Denoising with Score-Based Diffusion Model [23.838316718788988]
本稿では,スコアベース拡散モデルに基づく適応的かつ反復的な点雲復調法を提案する。
最先端のポイント・クラウド・デノナイズ手法と比較して,本手法はクリーンでスムーズなポイント・クラウドを得る。
論文 参考訳(メタデータ) (2025-09-18T02:46:08Z) - Accelerating Diffusion Language Model Inference via Efficient KV Caching and Guided Diffusion [16.99620863197586]
拡散言語モデルは並列トークン生成と本質的に双方向性を提供する。
最先端拡散モデル(ドリーム7B、LLaDA 8Bなど)は推論が遅い。
我々は,トークンアンマキングを監督するために,軽量な事前学習型自己回帰モデルを用いた学習自由度法であるガイドド拡散を導入する。
拡散言語モデルが初めて、広く採用されている自己回帰モデルと同等かつ高速なレイテンシを実現する。
論文 参考訳(メタデータ) (2025-05-27T17:39:39Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Efficient Point Clouds Upsampling via Flow Matching [16.948354780275388]
既存の拡散モデルは、ガウスノイズを実点雲にマップするときに非効率で苦労する。
本研究では,スパース点雲を高忠実度密度の雲に直接マッピングする流れマッチング手法PUFMを提案する。
本手法はより優れたアップサンプリング品質を提供するが,サンプリングステップは少ない。
論文 参考訳(メタデータ) (2025-01-25T17:50:53Z) - Robust Representation Consistency Model via Contrastive Denoising [83.47584074390842]
ランダムな平滑化は、敵の摂動に対する堅牢性を証明する理論的保証を提供する。
拡散モデルは、ノイズ摂動サンプルを浄化するためにランダムな平滑化に成功している。
我々は,画素空間における拡散軌跡に沿った生成的モデリングタスクを,潜在空間における識別的タスクとして再構成する。
論文 参考訳(メタデータ) (2025-01-22T18:52:06Z) - Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
任意の制約下で高速かつ高品質な生成を可能にするアルゴリズムを提案する。
推測中、ノイズの多い画像上で計算された勾配更新と、最終的なクリーンな画像で計算されたアップデートとを交換できる。
我々のアプローチは、最先端のトレーニングフリー推論アプローチに匹敵するか、超越した結果をもたらす。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - A Conditional Denoising Diffusion Probabilistic Model for Point Cloud
Upsampling [10.390581335119098]
PUDMと呼ばれる点群アップサンプリングのための条件分解拡散確率モデル(DDPM)を提案する。
PUDMはスパース点雲を条件として扱い、高密度点雲と雑音の間の変換関係を反復的に学習する。
PUDMは実験結果に強い耐雑音性を示す。
論文 参考訳(メタデータ) (2023-12-03T12:41:41Z) - The Missing U for Efficient Diffusion Models [3.712196074875643]
拡散確率モデル(Diffusion Probabilistic Models)は、画像合成、ビデオ生成、分子設計などのタスクにおいて、記録破りのパフォーマンスをもたらす。
それらの能力にもかかわらず、その効率、特に逆過程では、収束速度が遅いことと計算コストが高いため、依然として課題である。
本研究では,連続力学系を利用した拡散モデルのための新しいデノナイジングネットワークの設計手法を提案する。
論文 参考訳(メタデータ) (2023-10-31T00:12:14Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。